Удаляем .nop устройства из zfs пула

Mar 21, 2013 02:01

Когда в nas4free мы создаём zfs массив и ставим галочку для использования 4K сектора, на выходе имеем пул, оптимизированный под современные диски, которые именно с 4K физическим сектором, даже если сообщают иное. Сегодня мы уберём лишний слой. Это не обязательно, но может пригодиться в трудную минуту.

Read more... )

руками, nas, nas4free, zfs

Leave a comment

Comments 28

s1r0ta May 7 2015, 08:56:00 UTC
Pool 1.38T 1.34T 166 17 20.2M 780K
ada0.nop 1.38T 446G 166 17 20.2M 769K
ada1 14.0M 928G 0 12 3.25K 315K
Можно ли сейчас у ada0 удалить nop?

Reply

2gusia May 9 2015, 15:06:22 UTC
в принципе - да. экспортировать пул, убить nop, импортировать пул

Но на страйпе я не испытывал так что есть маленькая вероятность того, что придётся бить в бубун - так что я бы не трогал.

Reply


dusty_earth May 11 2015, 08:10:47 UTC
После удаления .nop статус пула такой:

pool: po7
state: ONLINE
scan: none requested
config:

NAME STATE READ WRITE CKSUM
po7 ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
diskid/DISK-9VMV4B1X ONLINE 0 0 0
diskid/DISK-Z2A9NSQP ONLINE 0 0 0

errors: No known data errors

Соответственно диски были "ada0.nop" и "ada1.nop". Дать команду (например offline) в Disks|ZFS|Pools|Tools нет возможности, т.к. поле с названиями девайсов теперь пустое. Почему так искаверкались названия и как их сделать "благопристойнее" ? :)
Пробовал методами из консоли и из веб-гуя - разницы нет.

Версия: 10.1.0.2 - Prescience (revision 1454)

Reply

2gusia May 11 2015, 10:16:16 UTC
названия стали просто конфектка - по ID диска. Думаю, это очень хорошо. Не перепутается при перетыкании. Но я такого пока не видел - это явно плюшки из FreeBSD 10

Можете попытаться синхронизировать пул с вебгуем в Disks|ZFS|Configuration|Synchronize
чтоб пустыми не были - думаю, получится. Но предварительно конфиг бы я сохранил.

А вообще, юзать раннюю бету - это по тонкому льду идти...

Reply

dusty_earth May 11 2015, 11:33:18 UTC
Синхронизация вебгуем ничего не изменила. Из всех команд, которые можно выбрать из списка в Tools, видит диски только attach. Причём вот так: "ada0" "ada1".

*Обновление*
Поставил версию 9.3.0.2 (1480) и всё работает. Но нужна синхронизация из вебгуя, а то если дать команду offline диску ada0, вылазит сообщение вроде "выполнять не буду, no such ada0.nop".

Reply


Чудеса с .nop дисками sanperegrino February 22 2016, 19:01:51 UTC
День добрый!
Прошу прощения за многабуков.
Глянул на вебгуе - zfs-пул в DEGRADED.
(NAS4Free 10.1.0.2 - Prescience
ada0 - система
ada1-ada4 - raidz1-0 четыре диска по 500Мб
).
Полез в терминал посмотреть

... )

Reply

Re: Чудеса с .nop дисками 2gusia February 22 2016, 19:55:08 UTC
Есть пара замечаний

1) Вебгуй показывает не реальность, а то, что записано в конфиг.
2) Нумерация дисков (ada1, 2 и тп) зависит от числа подключённых дисков и того к каким портам они подключены.

У вас всё нормально - просто номера дисков пляшут при подключении ещё одного.

>решил избавиться от .nop перейти на GPT.
первое можно сделать (проще - пока не подключён ещё один диск)
второе - только разрушив пул и создав потом его заново. Если это делать - удалять сначала nop - лишняя работа.

Подтвердите, если вы хотите
- создать пул на новом диске
- перекачать туда инфу с raidz MyData
- разрушить raidz MyData
- создать на его дисках новый raidz, на GPT метках
- перекачать инфу на новый пул

?

Если да - я скажу что именно делать.
Впрочем, советую сначала создать модель такой системы на виртуалке и потестить
Если нет - скажите что именно хотите.

Reply

Re: Чудеса с .nop дисками sanperegrino February 23 2016, 06:58:56 UTC
Именно так

Reply

Re: Чудеса с .nop дисками sanperegrino February 23 2016, 07:04:54 UTC
Засада началась с того, что на свежеподключенном диске я не смог создать новый пул, что б экспортировать туда старый "MyData".
Крайне неожиданно, что zfs посчитала его в составе raidz.
Действительно так и хотел:
- создать пул на новом диске
- перекачать туда инфу с raidz MyData
- разрушить raidz MyData
- создать на его дисках новый raidz, на GPT метках
- перекачать инфу на новый пул.

Reply


m_zarya February 20 2017, 22:22:53 UTC
Сейчас вот попытался удалить nop-ы из уже созданного пула на 5 дисков, экспорт проходит нормально, а вот после gnop destroy обратно не импортируется, устройства без nop показываются как corrupted data и предлагается пул создавать заново, благо через восстановление конфига из файла все можно вернуть, но все же хотелось бы понять - что тут не так.

Reply

2gusia February 21 2017, 08:49:48 UTC
Странно это. Попробуйте убить nop только на одном диске - что напишет?

А ещё лучше сначала потренируйтесь на виртуалке.

Reply


metaakril May 15 2018, 17:40:10 UTC
Верно ли, что если создавать пул сразу на GPT метках (https://2gusia.livejournal.com/130035.html), то никаких nop-ов уже не будет?

Reply


Leave a comment

Up