Эта запись встает на место одноименной записи от 2013 г. С тех пор много воды утекло, старую я не удаляю. Тем более, что настоящая запись - про замену диска в zfs массиве на именованных gpt разделах. А старая - про другие варианты
( Read more... )
восстановление битого диска в пулеprepres90January 26 2022, 13:51:40 UTC
Добрый день! Спасибо полезные статьи! Есть вопрос: у меня RAIDZ-1 на 5ти дисках. Два диска перестали работать. Тоесть пул развалился. Если я смогу один диск побитно склонировать на новый носитель (в компании по восстановлению данных) и вернуть новый диск в пул, после чего импортировать пул заново в режиме ридонли - пул заведется или нет?
Re: восстановление битого диска в пуле2gusiaJanuary 26 2022, 14:05:22 UTC
Такая вероятность есть. Но именно вероятность - зависит от того, насколько повреждена окажется эта копия. Кстати, если вы снимите копию и со второго дохлого диска и обе копии zfs увидит - вероятность полного восстановления сильно возрастет.
Re: восстановление битого диска в пулеprepres90January 26 2022, 17:12:33 UTC
Спасибо Михаил! То-есть пулу все-равно на каких дисках с каким серийником лежит информация? И, в теории, можно склонировать все диски на совершенно другие диски (ну или кассеты стримера :) ) и пул стартанет?
Re: восстановление битого диска в пуле2gusiaJanuary 26 2022, 17:19:17 UTC
Я не дам руку на отсечение, тк не изучал код, но насколько понимаю, пул опирается не на имена устройств и не на серийники - а на запись метаданных -уберблоки и пр.
Если восстановление будет дорогим - не вредно проверить это экспериментально, проведя операции с тестовым пулом.
>zfs-пул был страйп на одном vdev, который лежал на отказоусточивом массиве на аппаратном raid-контроллере.
Вы выбрали крайне НЕ рекомендованный вариант, отказавшись от большей части возможности zfs по устранению ошибок. Теперь вам придется полагаться на то, что оставили. Если ваш аппаратный контроллер сможет исправить повреждения, возникшие в результате отключений на горячую - у вас есть шансы.
Во-первых, забудьте про все что написано в вебгуе - в вашем положении все ТОЛЬКО через командную строку
первым делом чините средствами своего конртоллера что можно ими починить. там должны быть избыточность и исправление по клонтрольным суммам.
Далее, раз пулов нет - (zpool status вы уже смотрели) нужна попытка сделать zpool import. Посмотрите синтаксис команды в мане, судя по тексту вам понимания хватит.Если пул увидится - его стоит попытаться восстановить. И отписаться о результатах.
NAME STATE READ WRITE CKSUM zakroma ONLINE 0 0 0 da1p1 ONLINE 0 0 0
errors: No known data errors xigmanas: ~# zpool list NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT zakroma 1.94T 1.29T 659G - - 0% 66% 1.00x ONLINE -
хех... не знал, что так можно... сейчас скраб сделаю...
а вот бесконечный ресильвер... inomaratadeathNovember 9 2022, 10:39:51 UTC
RAID-Z на 4 дисках, 1 диск умер. Заменил диск, запустил ресильвер. pool: storage state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scan: resilver in progress since Wed Nov 9 12:09:32 2022 174G scanned out of 2.25T at 200M/s, 3h2m to go 41.6G resilvered, 7.57% done config:
Re: а вот бесконечный ресильвер... 2gusiaNovember 9 2022, 22:23:08 UTC
errors: Permanent errors have been detected in the following files:
<0x7d>:<0x17f9> Это проблема в служебной инфе. У меня она оставалась, когда я удалял файлы Вреда не обнаружил - но не уверен. Хорошего способа исправить я не знаю. Можно перекопировать куда-то как файлы - тогда исчезнет. Или удалить те файлы, для которых используются эти метаданные (но как их определить - неизвестно)
Re: а вот бесконечный ресильвер... 2gusiaNovember 10 2022, 17:12:35 UTC
>не могу понять - когда надо вылетевший диск переводить в оффлайн, а когда это необязательно.
сли диск читается хоть частично - то нет - с него система тоже может использовать инфу. Если дисв встает колом и тормозит процесс - то перевод в офлайн оказывается решением (или физическое отключение)
Замена дисков в пуле.vebsterNovember 30 2022, 04:38:17 UTC
Добрый день. Подскажите, есть желание увеличить пул в размере. Возможно ли увеличение пула поочередной заменой дисков в пуле на больший размер? Что делать если пищит упс и говорит что пора рубить комп а копирование еще идет после замены диска? Как остановить процесс?
И чутка на другую тему. Хочу собрать пул на 4-х nwme SSD для сайта. Терзаюсь сомнением, стоит ли объединять их в Radz-1? С одной стороны много записи на этот пул не планируется. Больше чтения. Но и терять данные не хочу. А держать копию на втором массиве 6ТБ как-то жирно. Что скажете?
Re: Замена дисков в пуле.2gusiaNovember 30 2022, 11:00:26 UTC
Возможно ли увеличение пула поочередной заменой дисков в пуле на больший размер? - да, я так делал. Возможно в конце придется дать пару команд, возможно расширение и самое произойдет в при следующем рестарте - зависит от деталей
Что делать если пищит упс и говорит что пора рубить комп а копирование еще идет после замены диска?
Дайте штатную команду на выключение NAS. Он разберется с ресилвером и продолжеит после рестатра. Если руками копируете - остановите сначала копирование. А по уму UPS должен сам команду давать в NAS что отключаемся
стоит ли объединять их в Radz-1 RAID - не замена бекапа. RAID - обеспечение высокой готовности (низкого или нулевого времени неработоспособности при аппартаном сбое)
Так что сделайте бекап невосстановимых данных где-то еще. А делть ли зеркало - зависит от того, стоит ли пере6рыв в работе на восстановление уполовинивания объема.
Re: Замена дисков в пуле.2gusiaNovember 30 2022, 21:42:58 UTC
Буковки просто у вас не в привычном регистре - я и решил что про зеркало. А raidz поведет себя на SSD нормально. Скорость у него будет грубо как у одного SSD.
Comments 65
Применима ли эта инструкция для замены диска в zfs mirror массиве?
Мой массив:
root@ars:~# zpool status
pool: pool4
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
pool4 ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
gpt/WCC7K7VYN3ZV ONLINE 0 0 0
gpt/WCC7K5ZUFFRZ ONLINE 0 0 0
Reply
https://www.freebsd.org/cgi/man.cgi?query=zpool-attach&sektion=8&apropos=0&manpath=FreeBSD+13.0-RELEASE+and+Ports
Reply
Спасибо полезные статьи!
Есть вопрос: у меня RAIDZ-1 на 5ти дисках. Два диска перестали работать. Тоесть пул развалился. Если я смогу один диск побитно склонировать на новый носитель (в компании по восстановлению данных) и вернуть новый диск в пул, после чего импортировать пул заново в режиме ридонли - пул заведется или нет?
Reply
Reply
То-есть пулу все-равно на каких дисках с каким серийником лежит информация?
И, в теории, можно склонировать все диски на совершенно другие диски (ну или кассеты стримера :) ) и пул стартанет?
Reply
Если восстановление будет дорогим - не вредно проверить это экспериментально, проведя операции с тестовым пулом.
Reply
Reply
Вы выбрали крайне НЕ рекомендованный вариант, отказавшись от большей части возможности zfs по устранению ошибок. Теперь вам придется полагаться на то, что оставили. Если ваш аппаратный контроллер сможет исправить повреждения, возникшие в результате отключений на горячую - у вас есть шансы.
Во-первых, забудьте про все что написано в вебгуе - в вашем положении все ТОЛЬКО через командную строку
первым делом чините средствами своего конртоллера что можно ими починить. там должны быть избыточность и исправление по клонтрольным суммам.
Далее, раз пулов нет - (zpool status вы уже смотрели)
нужна попытка сделать zpool import. Посмотрите синтаксис команды в мане, судя по тексту вам понимания хватит.Если пул увидится - его стоит попытаться восстановить. И отписаться о результатах.
Reply
Reply
xigmanas: ~# zpool status
pool: zakroma
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zakroma ONLINE 0 0 0
da1p1 ONLINE 0 0 0
errors: No known data errors
xigmanas: ~# zpool list
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
zakroma 1.94T 1.29T 659G - - 0% 66% 1.00x ONLINE -
хех... не знал, что так можно... сейчас скраб сделаю...
Reply
pool: storage
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Wed Nov 9 12:09:32 2022
174G scanned out of 2.25T at 200M/s, 3h2m to go
41.6G resilvered, 7.57% done
config:
NAME STATE READ WRITE CKSUM
storage DEGRADED 0 0 1.01K
raidz1-0 DEGRADED 0 0 2.02K
ada0 ONLINE 0 0 0
replacing-1 DEGRADED 0 0 0
3001576134175200482 UNAVAIL 0 0 0 was /dev/ada2/old
ada2 ONLINE 0 0 0 (resilvering)
ada3 ONLINE 0 0 0
ada1 ONLINE 0 0 0
errors: Permanent errors have been detected in the following files:
<0x7d>:< ( ... )
Reply
<0x7d>:<0x17f9>
Это проблема в служебной инфе. У меня она оставалась, когда я удалял файлы Вреда не обнаружил - но не уверен. Хорошего способа исправить я не знаю. Можно перекопировать куда-то как файлы - тогда исчезнет. Или удалить те файлы, для которых используются эти метаданные (но как их определить - неизвестно)
Reply
сли диск читается хоть частично - то нет - с него система тоже может использовать инфу. Если дисв встает колом и тормозит процесс - то перевод в офлайн оказывается решением (или физическое отключение)
Reply
Подскажите, есть желание увеличить пул в размере. Возможно ли увеличение пула поочередной заменой дисков в пуле на больший размер?
Что делать если пищит упс и говорит что пора рубить комп а копирование еще идет после замены диска? Как остановить процесс?
И чутка на другую тему.
Хочу собрать пул на 4-х nwme SSD для сайта. Терзаюсь сомнением, стоит ли объединять их в Radz-1? С одной стороны много записи на этот пул не планируется. Больше чтения. Но и терять данные не хочу. А держать копию на втором массиве 6ТБ как-то жирно. Что скажете?
Reply
- да, я так делал. Возможно в конце придется дать пару команд, возможно расширение и самое произойдет в при следующем рестарте - зависит от деталей
Что делать если пищит упс и говорит что пора рубить комп а копирование еще идет после замены диска?
Дайте штатную команду на выключение NAS. Он разберется с ресилвером и продолжеит после рестатра. Если руками копируете - остановите сначала копирование. А по уму UPS должен сам команду давать в NAS что отключаемся
стоит ли объединять их в Radz-1
RAID - не замена бекапа. RAID - обеспечение высокой готовности (низкого или нулевого времени неработоспособности при аппартаном сбое)
Так что сделайте бекап невосстановимых данных где-то еще. А делть ли зеркало - зависит от того, стоит ли пере6рыв в работе на восстановление уполовинивания объема.
Reply
Спасибо за ответы.
Reply
Reply
Leave a comment