informatique:linux:raid0_sous_linux
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revisionNext revisionBoth sides next revision | ||
informatique:linux:raid0_sous_linux [2011/02/16 21:43] – [Augmenter un lv] pteu | informatique:linux:raid0_sous_linux [2012/11/03 00:01] – modification externe 127.0.0.1 | ||
---|---|---|---|
Line 120: | Line 120: | ||
=====Divers===== | =====Divers===== | ||
- | |||
- | ====Monitorer son RAID==== | ||
- | |||
- | < | ||
- | cat / | ||
- | | ||
- | md1 : active raid0 sda3[0] sdb3[1] | ||
- | | ||
- | |||
- | md0 : active raid0 sda2[0] sdb2[1] | ||
- | | ||
- | |||
- | | ||
- | </ | ||
- | |||
- | On peut avoir plus de détails avec : | ||
- | < | ||
- | mdadm --detail /dev/md1 | ||
- | /dev/md1: | ||
- | | ||
- | | ||
- | Raid Level : raid0 | ||
- | Array Size : 1945696256 (1855.56 GiB 1992.39 GB) | ||
- | Raid Devices : 2 | ||
- | Total Devices : 2 | ||
- | | ||
- | | ||
- | |||
- | | ||
- | State : clean | ||
- | Active Devices : 2 | ||
- | | ||
- | Failed Devices : 0 | ||
- | Spare Devices : 0 | ||
- | |||
- | Chunk Size : 64K | ||
- | | ||
- | UUID : 9695e8d2: | ||
- | Events : 0.5 | ||
- | | ||
- | | ||
- | 0 | ||
- | 1 | ||
- | </ | ||
====Créer un volume RAID1 avec un seul disque==== | ====Créer un volume RAID1 avec un seul disque==== | ||
Line 176: | Line 132: | ||
=====Création d'un raid5 + LVM===== | =====Création d'un raid5 + LVM===== | ||
+ | |||
+ | ====Volume RAID 5==== | ||
Un raid0 avec de la redondance pour la sécurité des données ? C'est un raid5 et c'est ce que je vais tenté (" | Un raid0 avec de la redondance pour la sécurité des données ? C'est un raid5 et c'est ce que je vais tenté (" | ||
+ | |||
+ | Première chose : repérer les noms des disques : | ||
+ | <code bash> | ||
+ | sudo fdisk -l | grep Disk | ||
+ | Disk /dev/sda: 64.0 GB, 64023257088 bytes | ||
+ | Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes | ||
+ | Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes | ||
+ | Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes | ||
+ | </ | ||
+ | Dans mon cas je vais utiliser /dev/sdb, /dev/sdc et /dev/sdd pour mon RAID 5. | ||
+ | |||
+ | Puis, créer des partitions de type "Raid auto detect" | ||
+ | <code bash> | ||
+ | mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 --assume-clean / | ||
+ | mdadm: layout defaults to left-symmetric | ||
+ | mdadm: layout defaults to left-symmetric | ||
+ | mdadm: chunk size defaults to 512K | ||
+ | mdadm: cannot open /dev/sdc1: No such file or directory | ||
+ | </ | ||
+ | |||
+ | Après les avoir créés avec cfdisk, j' | ||
+ | <code bash> | ||
+ | mdadm --create --verbose /dev/md0 --level 5 --assume-clean --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1 | ||
+ | mdadm: layout defaults to left-symmetric | ||
+ | mdadm: layout defaults to left-symmetric | ||
+ | mdadm: chunk size defaults to 512K | ||
+ | mdadm: super1.x cannot open /dev/sdc1: Device or resource busy | ||
+ | mdadm: /dev/sdc1 is not suitable for this array. | ||
+ | mdadm: super1.x cannot open /dev/sdd1: Device or resource busy | ||
+ | mdadm: /dev/sdd1 is not suitable for this array. | ||
+ | mdadm: create aborted | ||
+ | </ | ||
+ | |||
+ | D' | ||
+ | <code bash> | ||
+ | sudo aptitude remove dmraid | ||
+ | </ | ||
+ | |||
+ | ... mais toujours le même problème :( | ||
+ | |||
+ | N' | ||
+ | |||
+ | Au reboot, les disques ont été renumérotés : | ||
+ | <code bash> | ||
+ | sudo fdisk -l | grep Disk | ||
+ | Disk /dev/sda: 2000.4 GB, 2000398934016 bytes | ||
+ | Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes | ||
+ | Disk /dev/sdc: 64.0 GB, 64023257088 bytes | ||
+ | Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes | ||
+ | </ | ||
<code bash> | <code bash> | ||
- | #création | + | # Création |
# --assume-clean permet d' | # --assume-clean permet d' | ||
- | mdadm --create --verbose /dev/md0 --level=raid5 | + | mdadm --create --verbose /dev/md0 --level |
+ | mdadm: layout defaults to left-symmetric | ||
+ | mdadm: layout defaults to left-symmetric | ||
+ | mdadm: chunk size defaults to 512K | ||
+ | mdadm: /dev/sdb1 appears to be part of a raid array: | ||
+ | level=raid5 devices=3 ctime=Thu Sep 6 23:40:51 2012 | ||
+ | mdadm: size set to 1953381888K | ||
+ | Continue creating array? y | ||
+ | mdadm: Defaulting to version 1.2 metadata | ||
+ | mdadm: array /dev/md0 started. | ||
</ | </ | ||
+ | |||
+ | Rofl ! It works ! | ||
Il faut attendre un peu le temps de la construction du raid, puis on vérifie : | Il faut attendre un peu le temps de la construction du raid, puis on vérifie : | ||
<code bash> | <code bash> | ||
- | mdadm --detail /dev/md0 | + | |
- | / | + | /dev/md0: |
Version : 1.2 | Version : 1.2 | ||
- | Creation Time : Tue Feb 15 18:58:18 2011 | + | Creation Time : Wed Sep 12 21:35:52 2012 |
Raid Level : raid5 | Raid Level : raid5 | ||
- | Array Size : 3907020800 | + | Array Size : 3906763776 |
- | Used Dev Size : 1953510400 | + | Used Dev Size : 1953381888 |
Raid Devices : 3 | Raid Devices : 3 | ||
Total Devices : 3 | Total Devices : 3 | ||
Persistence : Superblock is persistent | Persistence : Superblock is persistent | ||
- | Update Time : Wed Feb 16 12:32:05 2011 | + | Update Time : Thu Sep 13 18:00:13 2012 |
State : clean | State : clean | ||
| | ||
Line 209: | Line 228: | ||
Name : ymir2: | Name : ymir2: | ||
- | UUID : 9c8c8486:625dbdfd:98aa755c:b4266366 | + | UUID : 5766333b:7721932e:a40ebe2e:0c6fe1d0 |
| | ||
Line 220: | Line 239: | ||
# ou : | # ou : | ||
cat / | cat / | ||
- | md0 : active raid5 sdd1[2] sdb1[1] sda1[0] | + | Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] |
- | | + | md0 : active raid5 sdd1[2] sdb1[1] sda1[0] |
+ | | ||
- | unused devices: < | + | unused devices: < |
</ | </ | ||
- | |||
---- | ---- | ||
- | |||
Dans le première commande on pourrait tilter sur la ligne : | Dans le première commande on pourrait tilter sur la ligne : | ||
Line 280: | Line 298: | ||
- | Une fois le raid construit, si tout va bien, il faudra le monter automatiquement au démarrage la prochaine fois : | + | Une fois le raid construit, si tout va bien, il faudra le monter automatiquement au démarrage la prochaine fois ; commenter la ligne "ARRAY xxx" dans le fichier ''/ |
<code bash> | <code bash> | ||
- | echo " | ||
mdadm --detail --scan >> / | mdadm --detail --scan >> / | ||
+ | |||
+ | # PI le résultat de la commande : | ||
+ | ARRAY /dev/md0 metadata=1.2 name=ymir2: | ||
</ | </ | ||
+ | |||
+ | ====Raid en vrac au reboot==== | ||
+ | |||
+ | Sous Ubuntu 10.10 cette fois j'ai rencontré un problème lors du reboot car il me montait /dev/md avec 2 disques et /dev/md_d0 avec le dernier. Hideux. Même en retouchant le mdadm.conf celà n'a rien changé. Je suis alors tombé sur [[http:// | ||
+ | <code bash> | ||
+ | # arrêt du raid triso | ||
+ | mdadm --stop /dev/md_d0 | ||
+ | | ||
+ | | ||
+ | |||
+ | mdadm --auto-detect | ||
+ | |||
+ | / | ||
+ | |||
+ | update-initramfs -u | ||
+ | | ||
+ | |||
+ | # puis on reboot | ||
+ | init 6 | ||
+ | </ | ||
+ | |||
+ | Au redémarrage le volume RAID est monté correctement \o/. | ||
+ | |||
+ | ===D' | ||
+ | |||
+ | <code bash> | ||
+ | cat / | ||
+ | Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] | ||
+ | md126 : inactive sdc[1] | ||
+ | 1953514496 blocks | ||
+ | |||
+ | md127 : active (auto-read-only) raid5 sdd[2] sdb[0] | ||
+ | 3907028992 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U] | ||
+ | |||
+ | unused devices: < | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --examine /dev/sdb1 | ||
+ | /dev/sdb1: | ||
+ | Magic : a92b4efc | ||
+ | Version : 0.90.00 | ||
+ | UUID : cc5892bf: | ||
+ | Creation Time : Fri Aug 19 18:22:07 2011 | ||
+ | Raid Level : raid5 | ||
+ | Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) | ||
+ | Array Size : 3907023872 (3726.03 GiB 4000.79 GB) | ||
+ | Raid Devices : 3 | ||
+ | Total Devices : 3 | ||
+ | Preferred Minor : 0 | ||
+ | |||
+ | Update Time : Thu Nov 17 19:32:24 2011 | ||
+ | State : clean | ||
+ | | ||
+ | Working Devices : 3 | ||
+ | | ||
+ | Spare Devices : 0 | ||
+ | | ||
+ | | ||
+ | |||
+ | | ||
+ | Chunk Size : 64K | ||
+ | |||
+ | Number | ||
+ | this | ||
+ | |||
+ | | ||
+ | | ||
+ | | ||
+ | |||
+ | mdadm --examine /dev/sdc1 | ||
+ | /dev/sdc1: | ||
+ | Magic : a92b4efc | ||
+ | Version : 0.90.00 | ||
+ | UUID : cc5892bf: | ||
+ | Creation Time : Fri Aug 19 18:22:07 2011 | ||
+ | Raid Level : raid5 | ||
+ | Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) | ||
+ | Array Size : 3907023872 (3726.03 GiB 4000.79 GB) | ||
+ | Raid Devices : 3 | ||
+ | Total Devices : 3 | ||
+ | Preferred Minor : 0 | ||
+ | |||
+ | Update Time : Thu Nov 17 19:32:24 2011 | ||
+ | State : clean | ||
+ | | ||
+ | Working Devices : 3 | ||
+ | | ||
+ | Spare Devices : 0 | ||
+ | | ||
+ | | ||
+ | |||
+ | | ||
+ | Chunk Size : 64K | ||
+ | |||
+ | Number | ||
+ | this | ||
+ | |||
+ | | ||
+ | | ||
+ | | ||
+ | |||
+ | mdadm --examine /dev/sdd1 | ||
+ | /dev/sdd1: | ||
+ | Magic : a92b4efc | ||
+ | Version : 0.90.00 | ||
+ | UUID : cc5892bf: | ||
+ | Creation Time : Fri Aug 19 18:22:07 2011 | ||
+ | Raid Level : raid5 | ||
+ | Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) | ||
+ | Array Size : 3907023872 (3726.03 GiB 4000.79 GB) | ||
+ | Raid Devices : 3 | ||
+ | Total Devices : 3 | ||
+ | Preferred Minor : 0 | ||
+ | |||
+ | Update Time : Thu Nov 17 19:32:24 2011 | ||
+ | State : clean | ||
+ | | ||
+ | Working Devices : 3 | ||
+ | | ||
+ | Spare Devices : 0 | ||
+ | | ||
+ | | ||
+ | |||
+ | | ||
+ | Chunk Size : 64K | ||
+ | |||
+ | Number | ||
+ | this | ||
+ | |||
+ | | ||
+ | | ||
+ | | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | egrep -v " | ||
+ | DEVICE partitions | ||
+ | CREATE owner=root group=disk mode=0660 auto=yes | ||
+ | HOMEHOST < | ||
+ | MAILADDR root | ||
+ | ARRAY /dev/md0 level=raid5 num-devices=3 metadata=0.90 UUID=cc5892bf: | ||
+ | | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --detail --scan | ||
+ | ARRAY /dev/md/0_0 metadata=0.90 UUID=c50da923: | ||
+ | ARRAY /dev/md/0_1 metadata=0.90 UUID=cb278753: | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --stop /dev/md126 | ||
+ | | ||
+ | mdadm --stop /dev/md127 | ||
+ | | ||
+ | mdadm --assemble /dev/md0 | ||
+ | | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --detail --scan | ||
+ | ARRAY /dev/md0 metadata=0.90 UUID=cc5892bf: | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | cat / | ||
+ | Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] | ||
+ | md0 : active raid5 sdb1[0] sdd1[2] sdc1[1] | ||
+ | 3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] | ||
+ | |||
+ | unused devices: < | ||
+ | </ | ||
+ | |||
+ | |||
+ | ====LVM==== | ||
Création du bousin LVM : déclaration dans l' | Création du bousin LVM : déclaration dans l' | ||
Line 310: | Line 506: | ||
</ | </ | ||
+ | Vérifications : afficher les résumés des volumes physiques, des groupes de volumes et des volumes logiques : | ||
+ | <code bash> | ||
+ | pvs | ||
+ | PV | ||
+ | / | ||
+ | / | ||
+ | |||
+ | vgs | ||
+ | VG #PV #LV #SN Attr | ||
+ | md0_vg | ||
+ | ymir2 1 | ||
+ | |||
+ | lvs | ||
+ | LV VG | ||
+ | data_lv md0_vg -wi-ao | ||
+ | root ymir2 -wi-ao 56,91g | ||
+ | swap_1 | ||
+ | </ | ||
=====Management du raid===== | =====Management du raid===== | ||
+ | |||
+ | ====Monitorer son RAID==== | ||
+ | |||
+ | <note warning> | ||
+ | Attention les commandes qui vont suivre ne proviennent pas toutes du même RAID ! | ||
+ | </ | ||
+ | |||
+ | < | ||
+ | cat / | ||
+ | | ||
+ | md1 : active raid0 sda3[0] sdb3[1] | ||
+ | | ||
+ | |||
+ | md0 : active raid0 sda2[0] sdb2[1] | ||
+ | | ||
+ | |||
+ | | ||
+ | </ | ||
+ | |||
+ | On peut avoir plus de détails avec : | ||
+ | < | ||
+ | mdadm --detail /dev/md1 | ||
+ | /dev/md1: | ||
+ | | ||
+ | | ||
+ | Raid Level : raid0 | ||
+ | Array Size : 1945696256 (1855.56 GiB 1992.39 GB) | ||
+ | Raid Devices : 2 | ||
+ | Total Devices : 2 | ||
+ | | ||
+ | | ||
+ | |||
+ | | ||
+ | State : clean | ||
+ | Active Devices : 2 | ||
+ | | ||
+ | Failed Devices : 0 | ||
+ | Spare Devices : 0 | ||
+ | |||
+ | Chunk Size : 64K | ||
+ | | ||
+ | UUID : 9695e8d2: | ||
+ | Events : 0.5 | ||
+ | | ||
+ | | ||
+ | 0 | ||
+ | 1 | ||
+ | </ | ||
Arrêter/ | Arrêter/ | ||
Line 427: | Line 689: | ||
| | ||
</ | </ | ||
+ | |||
=====Tests et banchmarks===== | =====Tests et banchmarks===== | ||
Line 541: | Line 804: | ||
Étonnant : on a un meilleur débit en écriture qu'en lecture sur ce raid0... | Étonnant : on a un meilleur débit en écriture qu'en lecture sur ce raid0... | ||
+ | |||
+ | |||
+ | =====Test avec bonnie++===== | ||
+ | |||
+ | bonnie++ est un logiciel tierce qui mesure les performances d'un disque. | ||
+ | |||
+ | |||
+ | =====Suppression totale d'un volume RAID===== | ||
+ | |||
+ | Parce que mdadm est coriace, et que la procédure de suppression d'un RAID pour récupérer les disques n'est pas si anodine que cela, voici une petite check-list : | ||
+ | |||
+ | Supprimer les metadata avec dmraid | ||
+ | <code bash> | ||
+ | sudo dmraid -r -E /dev/sdb | ||
+ | no raid disks and with names: "/ | ||
+ | |||
+ | sudo dmraid -r -E /dev/sdc | ||
+ | Do you really want to erase " | ||
+ | ERROR: ddf1: seeking device "/ | ||
+ | ERROR: writing metadata to /dev/sdc, offset 2000398933504 sectors, size 0 bytes returned 0 | ||
+ | ERROR: erasing ondisk metadata on /dev/sdc | ||
+ | |||
+ | sudo dmraid -r -E /dev/sdd | ||
+ | Do you really want to erase " | ||
+ | ERROR: ddf1: seeking device "/ | ||
+ | ERROR: writing metadata to /dev/sdd, offset 2000398933504 sectors, size 0 bytes returned 0 | ||
+ | ERROR: erasing ondisk metadata on /dev/sdd | ||
+ | </ | ||
+ | |||
+ | Si ça ne marche pas on observe encore : | ||
+ | <code bash> | ||
+ | cat / | ||
+ | Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] | ||
+ | md0 : inactive sdd[0](S) sdb[2](S) | ||
+ | 3907028992 blocks | ||
+ | unused devices: < | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | umount /dev/md0 | ||
+ | mdadm --manage /dev/md0 --stop | ||
+ | mdadm --manage /dev/md0 --remove | ||
+ | rm / | ||
+ | </ | ||
+ | |||
+ | Suppression de la partition " | ||
+ | <code bash> | ||
+ | sudo fdisk /dev/sdb | ||
+ | d | ||
+ | p | ||
+ | w | ||
+ | </ | ||
+ | |||
+ | On efface les superblocks : | ||
+ | <code bash> | ||
+ | sudo mdadm --zero-superblock /dev/sdb | ||
+ | sudo mdadm --zero-superblock /dev/sdb1 | ||
+ | mdadm: Couldn' | ||
+ | </ | ||
+ | |||
+ | Cela évite de se retrouver bloquer au boot par le prompt busybox ! | ||
+ | |||
+ | Dans mon cas au reboot un nouveau volume raid est apparu tout seul : " | ||
+ | <code bash> | ||
+ | sudo update-initramfs -u | ||
+ | sudo reboot | ||
+ | </ | ||
informatique/linux/raid0_sous_linux.txt · Last modified: 2024/06/29 14:10 by pteu