IBM - родина слонов :-)

Aug 21, 2008 18:24

Я обычно мало пишу о работе, потому что это не очень интересно рассказывать, да и не могу от имени компании выступать. Зато могут заказчики рассказывать. :-) Вот таиландская компания, которая занимается производством мультфильмов, выложила ролик о том, как для их нового мультфильма было важно создание единой системы хранения: Read more... )

ctdb, fun, sofs, floss, samba

Leave a comment

Comments 7

wpiggy August 22 2008, 08:15:40 UTC
Ещё одно доказательство того, что аниматоры везде, как сельди в бочке сидят. И ещё того, что ателье перезаписи самое любимое место для записи интервью :)
А вот с железом в общем и со storage в частности у нас намного проще всё...

Reply

abbra August 22 2008, 08:22:48 UTC
А какой у тебя workflow с доступностью данных аниматорам одновременно?

Reply

wpiggy August 22 2008, 08:44:09 UTC
У меня сейчас уже никакого. Я уволился с "Мельницы", уже довольно давно :)
А так... На "Мельнице" довольно много разных отделов. У каждого свой workflow, как правило со своим серваком. Полнометражные фильмы вообще делаются на кальке :) В моём отделе (визуальные эффекты) тоже был выделеный сервак на SuSe. Правда Сусь там стоит лишь потому, что мы сами её ставили и конфигурили, это вдвойне забавно, если учесть, что в отделе не было ни одного программера (мы все художники) :)
Первый сервер "Мельницы" мы собирали сами, это был двойной PIII на Serverworks + самосборный SCSI-RAID, который болтался на Mylex. RAID был меньше терабайта. Там были просто отдельные выделеные ресурсы для разных групп юзеров. Во всяком случае "Карлика Носа" и "Алёшу Поповича" на этом сделали :)

Reply

abbra August 22 2008, 08:57:49 UTC
У Кантаны задача была дорабатывать персонажей и сцены одновременно всем, не могут сотня человек работать в конвеере с обязательным ожиданием соседа, никаких денег тогда на проекты не хватит.

100 рабочих станций, каждая из которых хочет приличную полосу от сервера для рендеринга своих кусочков из общей базы, быстро "нагнут" любой одиночный сервер. Поэтому там сделана кластерная система, число узлов которой просто увеличивается при появлении "затыков" в сети и наращивается количество дисков/полок при появлении "затыков" в дисках. Для рабочих станций это хранилище выглядит как один ресурс CIFS на одном сервере, а дальше все наш софт очень хитро раскидывает и обеспечивает полную утилизацию кластерных узлов.

Все блокировки файлов и прочее, требуемое виндовыми аниматорскими софтинками, поддерживается между всеми узлами кластера и как следствие, всеми клиентскими машинками.

Reply


Leave a comment

Up