О сторадж-боксах

Aug 25, 2012 11:12


Кросспост из блога автора. Комментировать лучше там, но можно и тут
Звезды сошлись, руки дошли и я собрал таки стораджбокс, как и собирался уже полгода
Read more... )

10G и Infiniband, zfs, windows 7, linux, Разное

Leave a comment

Comments 27

shuvayev August 25 2012, 07:18:32 UTC
Не жарко им там?

Reply

alextutubalin August 25 2012, 07:24:58 UTC
Пока это на столе/под столом - все отлично (продув хороший). Как будет в шкафу - будем посмотреть.

Reply


_slw August 25 2012, 07:38:57 UTC
кто-то про zfs на линухе считает что одни грабли и падучая, а кое-кто -- что если знать как осткрегаться -- все замечательно. так что надо пробовать

Reply

alextutubalin August 25 2012, 07:43:25 UTC
Мне для iscsi/srp оттуда нужно только умение создавать тома. Буду пробовать, да.

Reply


dmarck August 25 2012, 09:09:54 UTC
только не gjournal, а SUJ

Reply

alextutubalin August 25 2012, 13:51:03 UTC
А как загнать журнал на отдельное устройство (SSD в моем случае)?

Reply

dmarck August 25 2012, 18:09:52 UTC
Никак -- но: Тебе это не нужно, trust me. gjournal удваивает весь поток, не только метаданные, SUJ кладёт в специальный инод, размещённый contiguously эффективно близко к началу FS, изменения метаданных, в виде кольцевого буфера.

Reply

alextutubalin August 25 2012, 18:29:07 UTC
То есть там никак не надо готовить диски, прямо вот в текущей FS все работает?

Reply


dmarck August 25 2012, 09:10:59 UTC
Бенчмарка -- iometer

Reply

alextutubalin August 25 2012, 13:32:20 UTC
Я не понимаю как интерпретировать результаты. Ну то есть совсем.

Reply

dmarck August 25 2012, 18:11:44 UTC
Ну, да, кстати, у тебя довольно специфический паттерн использования. Хотя, наверное, для iometer'а и твой можно описать, там гибкий язык.

iometer в основном на жестокий concurrent заточен, это да, и это не твоё.

Reply

alextutubalin August 25 2012, 18:28:14 UTC
параллельные потоки IO на крутящихся дисках - это же вообще катастрофа.

И на WS я этого ну почти не допускаю. Там где могу контролировать - там совсем не допускаю. По очевидным таким причинам.

Т.е. у меня два крайних паттерна, оба понятные: что-то делаем с большими файлами (гигабайтными). Пишем или читаем. Ну и что-то с мелкими (килобайтными в пределе), ну скажем компиляция читает мешок исходников.
Т.е. интересные мне на WS параметры - это throughput и latency, но без всякой конкуренции.

Reply


rezdm August 25 2012, 17:41:16 UTC
Я бы ещё ответил на такой вопрос, чтобы ответить на исходный: что происходит, если вылетает материнка (или адаптек), какова процедура восстановления работоспособности этого "носителя" тогда? Насколько легко будет в будущем переподцепить все эи веники при переезде на другою версию ОС? Т.п.

Reply

alextutubalin August 25 2012, 17:54:34 UTC
В адаптек я просто верю, что от смены контроллера на "не худший" - тома подцепятся. У меня такой опыт был, но раньше, еще с SCSI и я надеюсь что искусство не утеряно.
Про ZFS - знаю (про FreeBSD/солярку), что тома можно нормально таскать, таскал.
Про линуксовый mdadm - просто надеюсь на лучшее. Про линуксовый ZFS - ни на что не надеюсь, но проверю что созданные тома видны на FreeBSD.

Вообще, я на эти грабли уже наступал с дешевым контроллером (т.е. вообще он дорогой, просто достался с распродажи) и наступив - перешел на адаптек. Собственно, вот же мы обсуждали в январе: http://blog.lexa.ru/2012/01/13/q_korpus_dlya_hdd.html#comment-23646

Reply

thinker8086 August 26 2012, 19:23:13 UTC
Собственно, а какой Адаптек сейчас стоит, и насколько RAID в данном конфиге ускоряет работу с дисками, по сравнению, скажем, с "голым" терабайтником?

Reply

alextutubalin August 26 2012, 19:37:22 UTC
5805.
До вчерашнего дня в WS было 6 дисков (старые терабайтные барракуда ES.2, 7200rpm). RAID6.
Сейчас - вместо них стоит два одиночных медленных (какие были под рукой) двухтерабайтника.

Разница по скорости линейного чтения/записи - просто в разы. Были сотни мегабайт/сек (типа 300), сейчас заметно меньше 100 (особо не мерял, по данным виндового перформанс-монитора)
Бэкап вместо 15 минут идет полтора часа.

Reply


Leave a comment

Up