Рассказ 1. ВАС'овское кольцо или ГеоЦод.

Sep 09, 2015 10:21


История данного проекта на мой взгляд, для гос. организации просто невероятна. На момент 2012-2013 года, когда начали задумываться об объединении площадок не просто в ЦОД, а в единый, территориально разнесённый отказоустойчивый геоцод, отвечающий всем требованиям безопасности и функциональности (нужны были одни и те же виланы по всем площадкам ( ( Read more... )

esxi, vsphere, fc, san, vmware, ВАС, инфраструктурные решения, СХД, nortel, hitachi, huawei, vcenter

Leave a comment

Comments 5

Рассказ 1. ВАС'овское кольцо или ГеоЦод. livejournal September 11 2015, 04:58:36 UTC
Пользователь bablaw сослался на вашу запись в своей записи « Рассказ 1. ВАС'овское кольцо или ГеоЦод.» в контексте: [...] Оригинал взят у в Рассказ 1. ВАС'овское кольцо или ГеоЦод. [...]

Reply


golosptic September 11 2015, 05:52:55 UTC
Выглядит эпично с точки зрения красоты инженерного решения, но непонятно с точки зрения мотиваций тех, кто пробивал именно такой подход через нетехническое начальство.

А что было бы, если бы Вы не смогли подобрать нужную комбинацию прошивок и протоколов?
Я не в порядке обосрать, мне реально интересно - как Вы действовали и был ли у Вас "план Б".

Если Вам не сложно, ответьте на мои вопросы, ниже, мне Ваш проект действительно интересен, так как раньше я сам подобные штуки проектировал клиентам. Но очень давно...

Reply

alexanderberko September 11 2015, 18:17:05 UTC
Добрый вечер. Даже интересно, в чём его "эпичность"? Объект работает уже больше года без присмотра профессиональных кадров. Теперь, я могу только наблюдать, вмешиваться нельзя, но тест драйв из разряда безумного Макса и система работает ( ... )

Reply


golosptic September 11 2015, 06:03:10 UTC
Костылей, так как шаг влево или шаг вправо обходится весьма дорого, а простоя допустить просто не возможно (не говоря о потере данных). Поискав по всем партнерам и опросив всех менеджеров по Vmware, Microsoft, IBM, Hitachi мы остались без ответов.
Я на 100% уверен, что у IBM такое решение было где-то к концу 2010ых. Общались ли Вы с самой конторой или только с партнёрами?

Потом, когда все нормально отработало пару дней, полетели невероятные проблемы. Тайминги начали расти на пустом месте. Бессоных 2 или 3 дня, а как результат, сбойная sfp-шка. Она валила всю сеть или сегмент? И если первое - то как же можно говорить об отказоустойчивости построенной Вами сети? Если второе - то насколько велико было влияние?

Начали подключать второй линк и тут началась чертовщина. Пакеты теряются самопроизвольно, нортель стал показывать включённые линки там, где были пустые порты! Я сначала не поверил своим глазам, думаю, ну перепутал, с кем не бывает, проверил, нет, подключены только 1-е два порта, но эта зараза, показывает, что включены то 5, ( ... )

Reply

alexanderberko September 11 2015, 18:45:48 UTC
Я на 100% уверен, что у IBM такое решение было где-то к концу 2010ых.
Работали на прямую с вендорами и не только IBM. IBM нас ради такого потащил в далекую страну, показывать тогда еще "бету" svc в доказательство, что "оно" работает. К слову сказать, на демо были глюки и Индус повторял, это бета код, это бета код. К релизу все будет нормально. VMWare не было прецедентов геоцода, которые можно было показать. Говорили, что вроде в Голландии соединили 2 цода в рамках города, но вроде без L2, просто общий vCenter, но, детали так и не смогли раскрыть.

"Она валила всю сеть или сегмент?...."
Луна отваливалась по одному пути фабрики. Наблюдались затухания сигнала. Так как расстояние до объекта было больше 5, начали грешить на dwdm, так как недавно, похожие проблемы были именно из за него. А отказоусточивость (но, система увидела диски.), как раз и помогла найти проблему, когда начал отслеживать именно пропадающий путь. Он пропадал не надолго и не понятно от чего зависело.

Т.е. у Вас сейчас техническое решение опирается на костыль...По ( ... )

Reply


Leave a comment

Up