informatique:linux:raid0_sous_linux
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revisionNext revisionBoth sides next revision | ||
informatique:linux:raid0_sous_linux [2012/09/13 16:06] – RAID5 pteu | informatique:linux:raid0_sous_linux [2013/10/14 20:44] – modification externe 127.0.0.1 | ||
---|---|---|---|
Line 120: | Line 120: | ||
=====Divers===== | =====Divers===== | ||
- | |||
- | ====Monitorer son RAID==== | ||
- | |||
- | < | ||
- | cat / | ||
- | | ||
- | md1 : active raid0 sda3[0] sdb3[1] | ||
- | | ||
- | |||
- | md0 : active raid0 sda2[0] sdb2[1] | ||
- | | ||
- | |||
- | | ||
- | </ | ||
- | |||
- | On peut avoir plus de détails avec : | ||
- | < | ||
- | mdadm --detail /dev/md1 | ||
- | /dev/md1: | ||
- | | ||
- | | ||
- | Raid Level : raid0 | ||
- | Array Size : 1945696256 (1855.56 GiB 1992.39 GB) | ||
- | Raid Devices : 2 | ||
- | Total Devices : 2 | ||
- | | ||
- | | ||
- | |||
- | | ||
- | State : clean | ||
- | Active Devices : 2 | ||
- | | ||
- | Failed Devices : 0 | ||
- | Spare Devices : 0 | ||
- | |||
- | Chunk Size : 64K | ||
- | | ||
- | UUID : 9695e8d2: | ||
- | Events : 0.5 | ||
- | | ||
- | | ||
- | 0 | ||
- | 1 | ||
- | </ | ||
====Créer un volume RAID1 avec un seul disque==== | ====Créer un volume RAID1 avec un seul disque==== | ||
Line 220: | Line 176: | ||
... mais toujours le même problème :( | ... mais toujours le même problème :( | ||
- | N' | + | N' |
Au reboot, les disques ont été renumérotés : | Au reboot, les disques ont été renumérotés : | ||
Line 371: | Line 327: | ||
Au redémarrage le volume RAID est monté correctement \o/. | Au redémarrage le volume RAID est monté correctement \o/. | ||
+ | |||
+ | ===D' | ||
+ | |||
+ | <code bash> | ||
+ | cat / | ||
+ | Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] | ||
+ | md126 : inactive sdc[1] | ||
+ | 1953514496 blocks | ||
+ | |||
+ | md127 : active (auto-read-only) raid5 sdd[2] sdb[0] | ||
+ | 3907028992 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U] | ||
+ | |||
+ | unused devices: < | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --examine /dev/sdb1 | ||
+ | /dev/sdb1: | ||
+ | Magic : a92b4efc | ||
+ | Version : 0.90.00 | ||
+ | UUID : cc5892bf: | ||
+ | Creation Time : Fri Aug 19 18:22:07 2011 | ||
+ | Raid Level : raid5 | ||
+ | Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) | ||
+ | Array Size : 3907023872 (3726.03 GiB 4000.79 GB) | ||
+ | Raid Devices : 3 | ||
+ | Total Devices : 3 | ||
+ | Preferred Minor : 0 | ||
+ | |||
+ | Update Time : Thu Nov 17 19:32:24 2011 | ||
+ | State : clean | ||
+ | | ||
+ | Working Devices : 3 | ||
+ | | ||
+ | Spare Devices : 0 | ||
+ | | ||
+ | | ||
+ | |||
+ | | ||
+ | Chunk Size : 64K | ||
+ | |||
+ | Number | ||
+ | this | ||
+ | |||
+ | | ||
+ | | ||
+ | | ||
+ | |||
+ | mdadm --examine /dev/sdc1 | ||
+ | /dev/sdc1: | ||
+ | Magic : a92b4efc | ||
+ | Version : 0.90.00 | ||
+ | UUID : cc5892bf: | ||
+ | Creation Time : Fri Aug 19 18:22:07 2011 | ||
+ | Raid Level : raid5 | ||
+ | Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) | ||
+ | Array Size : 3907023872 (3726.03 GiB 4000.79 GB) | ||
+ | Raid Devices : 3 | ||
+ | Total Devices : 3 | ||
+ | Preferred Minor : 0 | ||
+ | |||
+ | Update Time : Thu Nov 17 19:32:24 2011 | ||
+ | State : clean | ||
+ | | ||
+ | Working Devices : 3 | ||
+ | | ||
+ | Spare Devices : 0 | ||
+ | | ||
+ | | ||
+ | |||
+ | | ||
+ | Chunk Size : 64K | ||
+ | |||
+ | Number | ||
+ | this | ||
+ | |||
+ | | ||
+ | | ||
+ | | ||
+ | |||
+ | mdadm --examine /dev/sdd1 | ||
+ | /dev/sdd1: | ||
+ | Magic : a92b4efc | ||
+ | Version : 0.90.00 | ||
+ | UUID : cc5892bf: | ||
+ | Creation Time : Fri Aug 19 18:22:07 2011 | ||
+ | Raid Level : raid5 | ||
+ | Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) | ||
+ | Array Size : 3907023872 (3726.03 GiB 4000.79 GB) | ||
+ | Raid Devices : 3 | ||
+ | Total Devices : 3 | ||
+ | Preferred Minor : 0 | ||
+ | |||
+ | Update Time : Thu Nov 17 19:32:24 2011 | ||
+ | State : clean | ||
+ | | ||
+ | Working Devices : 3 | ||
+ | | ||
+ | Spare Devices : 0 | ||
+ | | ||
+ | | ||
+ | |||
+ | | ||
+ | Chunk Size : 64K | ||
+ | |||
+ | Number | ||
+ | this | ||
+ | |||
+ | | ||
+ | | ||
+ | | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | egrep -v " | ||
+ | DEVICE partitions | ||
+ | CREATE owner=root group=disk mode=0660 auto=yes | ||
+ | HOMEHOST < | ||
+ | MAILADDR root | ||
+ | ARRAY /dev/md0 level=raid5 num-devices=3 metadata=0.90 UUID=cc5892bf: | ||
+ | | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --detail --scan | ||
+ | ARRAY /dev/md/0_0 metadata=0.90 UUID=c50da923: | ||
+ | ARRAY /dev/md/0_1 metadata=0.90 UUID=cb278753: | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --stop /dev/md126 | ||
+ | | ||
+ | mdadm --stop /dev/md127 | ||
+ | | ||
+ | mdadm --assemble /dev/md0 | ||
+ | | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --detail --scan | ||
+ | ARRAY /dev/md0 metadata=0.90 UUID=cc5892bf: | ||
+ | </ | ||
+ | |||
+ | <code bash> | ||
+ | cat / | ||
+ | Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] | ||
+ | md0 : active raid5 sdb1[0] sdd1[2] sdc1[1] | ||
+ | 3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] | ||
+ | |||
+ | unused devices: < | ||
+ | </ | ||
+ | |||
====LVM==== | ====LVM==== | ||
Line 416: | Line 524: | ||
swap_1 | swap_1 | ||
</ | </ | ||
+ | |||
=====Management du raid===== | =====Management du raid===== | ||
+ | |||
+ | ====Monitorer son RAID==== | ||
+ | |||
+ | <note warning> | ||
+ | Attention les commandes qui vont suivre ne proviennent pas toutes du même RAID ! | ||
+ | </ | ||
+ | |||
+ | < | ||
+ | cat / | ||
+ | | ||
+ | md1 : active raid0 sda3[0] sdb3[1] | ||
+ | | ||
+ | |||
+ | md0 : active raid0 sda2[0] sdb2[1] | ||
+ | | ||
+ | |||
+ | | ||
+ | </ | ||
+ | |||
+ | On peut avoir plus de détails avec : | ||
+ | < | ||
+ | mdadm --detail /dev/md1 | ||
+ | /dev/md1: | ||
+ | | ||
+ | | ||
+ | Raid Level : raid0 | ||
+ | Array Size : 1945696256 (1855.56 GiB 1992.39 GB) | ||
+ | Raid Devices : 2 | ||
+ | Total Devices : 2 | ||
+ | | ||
+ | | ||
+ | |||
+ | | ||
+ | State : clean | ||
+ | Active Devices : 2 | ||
+ | | ||
+ | Failed Devices : 0 | ||
+ | Spare Devices : 0 | ||
+ | |||
+ | Chunk Size : 64K | ||
+ | | ||
+ | UUID : 9695e8d2: | ||
+ | Events : 0.5 | ||
+ | | ||
+ | | ||
+ | 0 | ||
+ | 1 | ||
+ | </ | ||
Arrêter/ | Arrêter/ | ||
Line 441: | Line 598: | ||
- | =====Management de LVM===== | + | =====Augmenter un RAID + LVM===== |
- | ====Augmenter | + | Récemment j'ai ajouté |
+ | * augmenter le RAID | ||
+ | * augmenter le LV | ||
- | Synopsis : On a un lv ''/ | + | ====Augmenter |
- | Démonter le volume logique (NB : cette étape n'est pas obligatoire avec le système de fichier que j' | + | Bien sur ce nouveau disque disque a la même taille que les disques déjà inclus dans le RAID. Je créé une partition de type " |
+ | |||
+ | <code bash> | ||
+ | Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes | ||
+ | 81 têtes, 63 secteurs/ | ||
+ | Unités = secteurs de 1 * 512 = 512 octets | ||
+ | Taille de secteur (logique / physique) : | ||
+ | taille d'E/S (minimale / optimale) : | ||
+ | Identifiant de disque : 0x720b8114 | ||
+ | |||
+ | Périphérique Amorce | ||
+ | / | ||
+ | </ | ||
+ | |||
+ | Puis on ajoute le disque à la grappe : | ||
+ | <code bash> | ||
+ | mdadm /dev/md0 -a /dev/sdc1 | ||
+ | </ | ||
+ | |||
+ | Et enfin on augmente le nombre de disque à notre RAID. **Attention** cette étape va automatiquement lancer la resynchronisation du RAID, qui prend beaucoup de temps et ne supporte pas d' | ||
+ | <code bash> | ||
+ | mdadm --grow /dev/md0 --raid-device=4 | ||
+ | mdadm: Need to backup 3072K of critical section.. | ||
+ | </ | ||
+ | |||
+ | <note important> | ||
+ | Ne faites pas comme moi qui ai lancé cette commande à peine 3h avant une coupure électrique programmée... D' | ||
+ | </ | ||
+ | |||
+ | Vérification de l' | ||
+ | <code bash> | ||
+ | cat / | ||
+ | Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] | ||
+ | md0 : active raid5 sdc1[3] sdd1[2] sdb1[1] sda1[0] | ||
+ | 3906763776 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU] | ||
+ | [> | ||
+ | </ | ||
+ | |||
+ | Une fois la synchro terminée (soit environ < | ||
+ | <code bash> | ||
+ | mdadm --detail /dev/md0 | ||
+ | |||
+ | /dev/md0: | ||
+ | Version : 1.2 | ||
+ | Creation Time : Wed Sep 12 21:35:52 2012 | ||
+ | Raid Level : raid5 | ||
+ | Array Size : 5860145664 (5588.67 GiB 6000.79 GB) | ||
+ | Used Dev Size : 1953381888 (1862.89 GiB 2000.26 GB) | ||
+ | Raid Devices : 4 | ||
+ | Total Devices : 4 | ||
+ | Persistence : Superblock is persistent | ||
+ | |||
+ | Update Time : Tue Feb 19 06:03:31 2013 | ||
+ | State : clean | ||
+ | | ||
+ | Working Devices : 4 | ||
+ | | ||
+ | Spare Devices : 0 | ||
+ | |||
+ | | ||
+ | Chunk Size : 512K | ||
+ | |||
+ | Name : ymir2: | ||
+ | UUID : 5766333b: | ||
+ | | ||
+ | |||
+ | Number | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | </ | ||
+ | |||
+ | C'est déjà bien mais c'est pô fini ; il faut maintenant le dire à LVM ! | ||
+ | |||
+ | ====Prise en compte par LVM==== | ||
+ | |||
+ | 1) Première chose : Démonter le volume logique (NB : cette étape n'est pas obligatoire avec le système de fichier que j' | ||
<code bash> | <code bash> | ||
umount / | umount / | ||
</ | </ | ||
- | Augmenter la taille du lv ; attention sa taille ne doit pas dépasser la taille de son volume group (vg), ni être inférieur sa taille actuelle (sinon on perd des données). Pour le vérifier | + | 2) Augmenter la taille du pv : |
<code bash> | <code bash> | ||
- | # on regarde a quel vg le lv appartient -> md0_vg | + | pvresize |
- | lvdisplay | + | |
- | | + | |
- | LV Name | + | |
- | | + | |
- | LV UUID WSTrwM-JLAG-Bu9R-GsHw-XVsT-Dpbo-Zm5imT | + | |
- | LV Write Access | + | |
- | LV Status | + | |
- | # open 0 | + | |
- | LV Size 2,00 TiB | + | |
- | Current LE | + | |
- | Segments | + | |
- | Allocation | + | |
- | Read ahead sectors | + | |
- | - currently set to | + | |
- | Block device | + | |
- | # on affiche les caractéristique du vg | + | # vérif : c'est mieux ! |
- | vgdisplay | + | pvdisplay |
+ | --- Physical volume --- | ||
+ | PV Name / | ||
+ | VG Name | ||
+ | PV Size 5,46 TiB / not usable 1,50 MiB | ||
+ | Allocatable | ||
+ | PE Size 4,00 MiB | ||
+ | Total PE 1430699 | ||
+ | Free PE 0 | ||
+ | Allocated PE 1430699 | ||
+ | PV UUID | ||
+ | |||
+ | # le vg en tient compte immédiatement : | ||
+ | vgdisplay | ||
--- Volume group --- | --- Volume group --- | ||
VG Name | VG Name | ||
Line 478: | Line 714: | ||
Format | Format | ||
Metadata Areas 1 | Metadata Areas 1 | ||
- | Metadata Sequence No | + | Metadata Sequence No |
VG Access | VG Access | ||
VG Status | VG Status | ||
Line 487: | Line 723: | ||
Cur PV 1 | Cur PV 1 | ||
Act PV 1 | Act PV 1 | ||
- | VG Size 3,64 TiB | + | VG Size 5,46 TiB |
PE Size 4,00 MiB | PE Size 4,00 MiB | ||
- | Total PE | + | Total PE |
- | Alloc PE / Size 524288 | + | Alloc PE / Size 1430699 |
- | Free PE / Size 429574 | + | Free PE / Size 0 / 0 |
- | VG UUID 1g20v1-7HKi-CWtx-D8IP-GS9P-rTfB-nL9WHr | + | VG UUID AEKER3-SOwc-zwSQ-rR4J-iJw0-IxlI-qP2hd6 |
</ | </ | ||
- | On a bien 3.64TiB au total soit 4 To. | ||
- | On pourrait déclarer une nouvelle taille de 3.64 TiB ('' | + | 3) Augmenter la taille du lv ; attention sa taille ne doit pas dépasser la taille de son volume group (vg), ni être inférieur sa taille actuelle (sinon on perd des données). |
+ | |||
+ | On pourrait déclarer une nouvelle taille de 5,46 TiB ('' | ||
<code bash> | <code bash> | ||
lvresize -l +100%FREE / | lvresize -l +100%FREE / | ||
- | Extending logical volume data_lv to 3,64 TiB | + | Extending logical volume data_lv to 5,46 TiB |
Logical volume data_lv successfully resized | Logical volume data_lv successfully resized | ||
</ | </ | ||
- | On doit ensuite vérifier l' | + | 4) On doit ensuite vérifier l' |
- | <code bash> | + | <code bash> |
- | e2fsck -f / | + | |
- | | + | |
Passe 1 : vérification des i-noeuds, des blocs et des tailles | Passe 1 : vérification des i-noeuds, des blocs et des tailles | ||
Passe 2 : vérification de la structure des répertoires | Passe 2 : vérification de la structure des répertoires | ||
Line 512: | Line 748: | ||
Passe 4 : vérification des compteurs de référence | Passe 4 : vérification des compteurs de référence | ||
Passe 5 : vérification de l' | Passe 5 : vérification de l' | ||
- | / | + | / |
</ | </ | ||
Line 518: | Line 754: | ||
<code bash> | <code bash> | ||
resize2fs / | resize2fs / | ||
- | | + | |
- | En train de retailler | + | En train de redimensionner |
- | Le système de fichiers / | + | Le système de fichiers / |
</ | </ | ||
- | et on remonte le lv : | + | ... et on remonte le lv : |
<code bash> | <code bash> | ||
mount / | mount / | ||
- | df -Th /mnt/data | + | df -hT /mnt/data |
- | | + | Sys. de fichiers |
- | / | + | / |
- | ext4 3,6T 196M 3,6T 1% /mnt/data | + | |
</ | </ | ||
- | =====Tests et banchmarks===== | ||
- | Je vais comparer ici mon ex raid0 avec le nouveau | + | Okaaaay ! |
+ | |||
+ | =====Tests et benchmarks===== | ||
+ | |||
+ | Je vais comparer ici mon ex raid0 avec mon précédent | ||
Le raid0 est sur le serveur ymir : | Le raid0 est sur le serveur ymir : |
informatique/linux/raid0_sous_linux.txt · Last modified: 2024/06/29 14:10 by pteu