[Sysadmins] 2 NVMe in server
Alexander Volkov
alt на vladregion.ru
Пн Фев 26 11:32:54 MSK 2018
Приветствую.
23.02.2018, 20:32, "Alexandr ANDREEV" <admin931 на rambler.ru>:
> Здравствуйте, Alexander.
>
> во-первых, если я правильно вас понял у вас raid1 (зеркало)
Не совсем правильно поняли - я не смог на них создать raid1 ни напрямую (mdadm выругался), ни средствами lvm (pvcreate ругается при попытке добавить второй nvme и путается и id)
> следовательно структура данных на дисках должна быть идентичной.
> Т.е. вывод blkid /dev/nvme* правильный, но вот запущен ли у вас
> рейд непоняно.
он не создаётся.
>
> предъявите вывод:
> cat /proc/mdstat
> ну или что у вас там за рейд
А нет его (
> во-вторых не очень понятно с какими разделами вы работаете
> покажите вывод
> cat /etc/fstab
Смысла нет пока, а задача стоит добавить raid из этих дисков в lvm и перенести том с VPS.
> Вы писали 22 февраля 2018 г., 15:33:34:
>
>> 22.02.2018, 15:28, "Nikolay A. Fetisov" <naf на naf.net.ru>:
>>> Здравствуйте!
>>>
>>> В Чт, 22/02/2018 в 14:13 +0300, Alexander Volkov пишет:
>>>> Поставил давеча два одинаковых SSD в сервер на 2.6.32-ovz-el-alt162:
>>>> ....
>>>
>>>> Однако, после partprobe /dev/nvme0n1
>>>
>>> ...
>>>> появляются разделы и на втором с теми же идентификаторами.
>>>> ...
>>>
>>> Это случайно не libmultipath ? Если он не нужен, но стоит в системе -
>>> удаление его не поможет?
>
>> Нет, в системе не найдено.
>>>
>> А кому он может быть нужен?
>> Используется lvm+raid, ploop.
>> Кстати, в /proc/partitions вроде ничего лишнего:
>> cat /proc/partitions | grep nvme
>> 259 0 468851544 nvme0n1
>> 259 4 419430400 nvme0n1p1
>> 259 5 2097152 nvme0n1p2
>> 259 1 468851544 nvme1n1
>
> --
> С уважением,
> Alexandr mailto:admin931 на rambler.ru
--
Regards, Alex
Подробная информация о списке рассылки Sysadmins