[Sysadmins] 2 NVMe in server

Alexander Volkov alt на vladregion.ru
Пн Фев 26 11:32:54 MSK 2018


Приветствую.

23.02.2018, 20:32, "Alexandr ANDREEV" <admin931 на rambler.ru>:
> Здравствуйте, Alexander.
>
> во-первых, если я правильно вас понял у вас raid1 (зеркало)
Не совсем правильно поняли - я не смог на них создать raid1 ни напрямую (mdadm выругался), ни средствами lvm (pvcreate ругается при попытке добавить второй nvme и путается и id)

> следовательно структура данных на дисках должна быть идентичной.
> Т.е. вывод blkid /dev/nvme* правильный, но вот запущен ли у вас
> рейд непоняно.
он не создаётся.

>
> предъявите вывод:
> cat /proc/mdstat
> ну или что у вас там за рейд
А нет его (

> во-вторых не очень понятно с какими разделами вы работаете
> покажите вывод
> cat /etc/fstab
Смысла нет пока, а задача стоит добавить raid из этих дисков в lvm и перенести том с VPS.


> Вы писали 22 февраля 2018 г., 15:33:34:
>
>>  22.02.2018, 15:28, "Nikolay A. Fetisov" <naf на naf.net.ru>:
>>>  Здравствуйте!
>>>
>>>  В Чт, 22/02/2018 в 14:13 +0300, Alexander Volkov пишет:
>>>>   Поставил давеча два одинаковых SSD в сервер на 2.6.32-ovz-el-alt162:
>>>>   ....
>>>
>>>>   Однако, после partprobe /dev/nvme0n1
>>>
>>>  ...
>>>>   появляются разделы и на втором с теми же идентификаторами.
>>>>   ...
>>>
>>>  Это случайно не libmultipath ? Если он не нужен, но стоит в системе -
>>>  удаление его не поможет?
>
>>  Нет, в системе не найдено.
>>>
>>  А кому он может быть нужен?
>>  Используется lvm+raid, ploop.
>>  Кстати, в /proc/partitions вроде ничего лишнего:
>>  cat /proc/partitions | grep nvme
>>   259 0 468851544 nvme0n1
>>   259 4 419430400 nvme0n1p1
>>   259 5 2097152 nvme0n1p2
>>   259 1 468851544 nvme1n1
>
> --
> С уважением,
>  Alexandr mailto:admin931 на rambler.ru

-- 
Regards, Alex



Подробная информация о списке рассылки Sysadmins