RAID
Как посмотреть UUID диска, RAID массива?
Современные дистрибутивы Linux уже давно пишут в fstab не имя устройства, которое должно быть смонтировано, а его UUID. Это позволяет избежать путаницы при перестановке жёских дисков и смонтировать нужную файловую систему. Как же посмотреть какой UUID имеет блочное устройство: раздел жёсткого диска или RAID-массив?
- Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
- Подробнее
- 2433 просмотра
Непонятные повреждения файловой системы на программном RAID
Описание ситуации
Через какое-то время нормальной работы, в произвольный момент, случает повреждение файловой системы. Ядро говорит об ошибках чтения файловой системы в /var/log/messages и перемонтирует файловую систему в режим только для чтения. После проверки файловой системы и устранении возникших ошибок, всё опять работает какое-то время, затем снова неожиданно повреждение файловой системы.
- Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
- Подробнее
- 1310 просмотров
Удалённый RAID всё-равно виден после перезагрузки
Программный RAID в Linux записывает в суперблок на каждом разделе специальную информацию, которая при загрузке позволяет ядру Linux автоматически определить наличие программных RAID, установленных в системе. Однако, такой подход играет злую шутку, когда вы удаляете ненужный RAID, меняете тип файловой системы и форматируете файловую систему для других нужд.
- Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
- Подробнее
- 1208 просмотров
Что делать при: error opening /dev/md1: No such file or directory?
Если по команде
# cat /proc/mdstat
вы видите ваши програмнный RAID-массивы, но при это команды mdadm завершаются сообщением вида:
mdadm: error opening /dev/md1: No such file or directory?
То это значит, что по какой-то причине, операционная система видит ваши программные RAID-массивы, но при этом не создала устройств, соответствующих им. В этом случае вам необходимо создать эти устройства самим, командой:
- Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
- Подробнее
- 1416 просмотров
Что делать при "attempt to access beyond end of device"?
Однажны столкнулся с ситуацией, когда при попытке прочитать один из файлов, операционная система ругалась на невозможность его прочитать. При этом в /var/log/messages были сообщения вида:
Feb 27 19:42:02 server6 kernel: attempt to access beyond end of device Feb 27 19:42:02 server6 kernel: md2: rw=0, want=7938979680, limit=1132839168
Файловая система была развёрнута на программном RAID 10 устройстве /dev/md2. Проблема была решена выполнением двух действий:
- Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
- Подробнее
- 1463 просмотра
После перезагрузки рассыпался RAID, вместо /dev/md1 вижу /dev/md_d1
Описание ситуации
После перезагрузки, сервер отказался загружаться - не монтируется файловая система на программном RAID1 (зеркало). Раньше в системе было устройство /dev/md1, в которое входили два раздела: /dev/sda3 и /dev/sdb3. Теперь вместо /dev/md1 показывает /dev/md_d1 и вместо:
# cat /proc/mdstat Personalities : [raid1] [raid6] [raid5] [raid4] md1 : active raid1 sda3[0] sdb3[1] 231617024 blocks [2/2] [UU] ... unused devices:
вот такую картину:
- Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
- Подробнее
- 1343 просмотра
После замены жёского диска в зеркале (RAID1) не грузится операционная система
Уже не первый раз замечаю, что при установке операционной системы CentOS 5, на раздел, который представляет собой программное зеркало (RAID1), инсталлятор операционной системы устанавливает GRUB только на один из дисков зеркала. Таким образом, когда первый диск приходит в негодность и вы его заменяете, то при перезагрузке вы получаете большой облом - попытка загрузится со второго диска зеркала приводит к неудаче, потому что на втором диске загрузчика нет!
- Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
- Подробнее
- 1881 просмотр
В RAID10 вылетело два диска. Как спасти данные?
На самом деле, даже если вы увидели такую картину как (RAID10 и два прочерка):
md1 : active raid10 sda2[0](F) sdd2[3] sdc2[2](F) sdb2[1] 156264064 blocks 64K chunks 2 near-copies [4/4] [__UU]
Это ещё не конец света. Да, RAID теперь в непригодном к работе состоянии. Но попробуйте выполнить:
mdadm --stop /dev/md1 mdadm --assemble /dev/md1 --force --run
Вполне возможно, что ваш RAID10 соберётся без проблем и вы увидите:
- Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
- Подробнее
- 1413 просмотров