![Cele mai bune 10 aplicații pentru a deschide fișiere ZIP pe Android în 2021](/f/759f6bea07e75031b1a0aec6d7de4706.webp?width=100&height=100)
RAID 6 este versiunea actualizată a RAID 5, unde are două parități distribuite care oferă toleranță la erori chiar și după ce două unități nu reușesc. Sistemul critic pentru misiune este încă operațional în caz de eșecuri de două discuri simultane. Este la fel RAID 5, dar oferă mai multă soliditate, deoarece folosește încă un disc pentru paritate.
În articolul nostru anterior, am văzut paritate distribuită în RAID 5, dar în acest articol vom vedea RAID 6 cu dublă paritate distribuită. Nu vă așteptați la performanțe suplimentare decât orice alt RAID, dacă este așa, trebuie să instalăm și un controler RAID dedicat. Aici în RAID 6 chiar dacă ne pierdem cele două discuri, putem recupera datele înlocuind o unitate de rezervă și construindu-le din paritate.
Pentru a configura un RAID 6, minim 4 sunt necesare un număr de discuri sau mai multe într-un set. RAID 6 au mai multe discuri chiar și într-un anumit set, poate avea o grămadă de discuri, în timp ce citiți, va citi din toate unitățile, deci citirea ar fi mai rapidă, în timp ce scrierea ar fi slabă, deoarece trebuie să se dezbrace peste mai multe discuri.
Acum, mulți dintre noi ajung la concluzia, de ce trebuie să folosim RAID 6, când nu funcționează ca orice alt RAID. Hmm... cei care ridică această întrebare trebuie să știe că, dacă au nevoie de o toleranță mare la defecțiuni, alegeți RAID 6. În toate mediile superioare cu disponibilitate ridicată pentru baza de date, acestea se folosesc RAID 6 deoarece baza de date este cea mai importantă și trebuie să fie sigură în orice cost, poate fi utilă și pentru mediile de streaming video.
Sunt necesare minimum 4 numere de discuri pentru a crea un RAID 6. Dacă doriți să adăugați mai multe discuri, puteți, dar trebuie să aveți controler de raid dedicat. În software-ul RAID, nu vom obține performanțe mai bune în RAID 6. Deci, avem nevoie de un controler RAID fizic.
Cei care sunt noi la configurarea RAID, vă recomandăm să consultați articolele RAID de mai jos.
Sistem de operare: CentOS 6.5 Final. Adresă IP: 192.168.0.228. Numele gazdei: rd6.tecmintlocal.com. Discul 1 [20GB]: / dev / sdb. Discul 2 [20GB]: / dev / sdc. Disk 3 [20GB]: / dev / sdd. Disk 4 [20GB]: / dev / sde.
Acest articol este un Partea 5 dintr-o serie RAID cu 9 tutoriale, aici vom vedea cum putem crea și configura software-ul RAID 6 sau Striping cu dublă paritate distribuită în sisteme sau servere Linux folosind patru discuri de 20 GB numite / dev / sdb, / dev / sdc, / dev / sdd și / dev / sde.
1. Dacă urmăriți ultimele noastre două articole Raid (Partea 2 și Part. 3), unde am arătat deja cum se instalează „mdadm‘Instrument. Dacă sunteți nou în acest articol, permiteți-mi să explic că „mdadm‘Este un instrument pentru a crea și gestiona Raid în sistemele Linux, să instalăm instrumentul folosind următoarea comandă în funcție de distribuția Linux.
# yum install mdadm [pe sistemele RedHat] # apt-get install mdadm [pe sistemele Debain]
2. După instalarea instrumentului, acum este timpul să verificăm cele patru unități atașate pe care le vom folosi pentru crearea raidului folosind următoarele „fdisk‘Comanda.
# fdisk -l | grep sd.
3. Înainte de a crea unități RAID, examinați întotdeauna unitățile noastre de disc dacă există deja RAID pe discuri.
# mdadm -E / dev / sd [b-e] # mdadm --examine / dev / sdb / dev / sdc / dev / sdd / dev / sde.
Notă: În imaginea de mai sus se arată că nu există niciun superbloc detectat sau nu este definit RAID în patru unități de disc. Putem merge mai departe pentru a începe să creăm RAID 6.
4. Acum creați partiții pentru raid pe ‘/dev/sdb‘, ‘/dev/sdc‘, ‘/dev/sdd' și '/dev/sde‘Cu ajutorul urmăririi fdisk comanda. Aici, vom arăta cum să creați partiție pe sdb unitate și ulterior aceiași pași care trebuie urmați pentru restul unităților.
# fdisk / dev / sdb.
Vă rugăm să urmați instrucțiunile prezentate mai jos pentru crearea partiției.
# fdisk / dev / sdc.
# fdisk / dev / sdd.
# fdisk / dev / sde.
5. După crearea partițiilor, este întotdeauna un obicei bun să examinăm unitățile pentru superblocuri. Dacă superblocurile nu există, putem merge la cap pentru a crea o nouă configurare RAID.
# mdadm -E / dev / sd [b-e] 1 sau # mdadm --examine / dev / sdb1 / dev / sdc1 / dev / sdd1 / dev / sde1.
6. Acum este timpul să creați un dispozitiv Raid „md0‘(Adică /dev/md0) și aplicați nivelul raidului pe toate partițiile nou create și confirmați raidul folosind următoarele comenzi.
# mdadm --create / dev / md0 --level = 6 --raid-devices = 4 / dev / sdb1 / dev / sdc1 / dev / sdd1 / dev / sde1. # cat / proc / mdstat.
7. De asemenea, puteți verifica procesul curent de raid folosind ceas după cum se arată în ecranul de mai jos.
# ceas -n1 cat / proc / mdstat.
8. Verificați dispozitivele de raid folosind următoarea comandă.
# mdadm -E / dev / sd [b-e] 1.
Notă:: Comanda de mai sus va afișa informațiile celor patru discuri, care este destul de lungă, astfel încât nu este posibil să postați ieșirea sau captura ecranului aici.
9. Apoi, verificați matricea RAID pentru a confirma că resincronizarea este pornită.
# mdadm --detail / dev / md0.
10. Creați un sistem de fișiere folosind ext4 pentru „/dev/md0‘Și montați-l sub /mnt/raid6. Aici am folosit ext4, dar puteți utiliza orice tip de sistem de fișiere conform alegerii dvs.
# mkfs.ext4 / dev / md0.
11. Montați sistemul de fișiere creat sub /mnt/raid6 și verificăm fișierele sub punctul de montare, putem vedea directorul pierdut + găsit.
# mkdir / mnt / raid6. # mount / dev / md0 / mnt / raid6 / # ls -l / mnt / raid6 /
12. Creați câteva fișiere sub punctul de montare și adăugați text în oricare dintre fișiere pentru a verifica conținutul.
# atingeți /mnt/raid6/raid6_test.txt. # ls -l / mnt / raid6 / # echo "configurări raid tecmint"> /mnt/raid6/raid6_test.txt. # cat /mnt/raid6/raid6_test.txt.
13. Adăugați o intrare în /etc/fstab pentru a monta automat dispozitivul la pornirea sistemului și a adăuga intrarea de mai jos, punctul de montare poate diferi în funcție de mediul dvs.
# vim / etc / fstab / dev / md0 / mnt / raid6 ext4 implicit 0 0.
14. Apoi, executați „munte -a‘Comanda pentru a verifica dacă există vreo eroare la intrarea fstab.
# mount -av.
15. Vă rugăm să rețineți că RAID implicit nu are un fișier de configurare. Trebuie să-l salvăm folosind manual comanda de mai jos și apoi să verificăm starea dispozitivului „/dev/md0‘.
# mdadm --detail --scan --verbose >> /etc/mdadm.conf. # mdadm --detail / dev / md0.
16. Acum a făcut-o 4 discuri și există două informații de paritate disponibile. În unele cazuri, dacă vreunul dintre discuri eșuează, putem obține datele, deoarece există o paritate dublă în RAID 6.
Poate fi dacă al doilea disc eșuează, putem adăuga unul nou înainte de a pierde al treilea disc. Este posibil să adăugați o unitate de rezervă în timp ce creați setul nostru RAID, dar nu am definit unitatea de rezervă în timp ce creăm setul nostru de raid. Dar, putem adăuga o unitate de rezervă după orice defecțiune a unității sau în timp ce creăm setul RAID. Acum am creat deja setul RAID acum permiteți-mi să adaug o unitate de rezervă pentru demonstrație.
În scopul demonstrației, am conectat la cald un nou disc HDD (adică /dev/sdf), să verificăm discul atașat.
# ls -l / dev / | grep sd.
17. Acum confirmați din nou că noul disc atașat pentru orice raid este deja configurat sau nu folosește același lucru mdadm comanda.
# mdadm --examine / dev / sdf.
Notă: Ca de obicei, așa cum am creat partiții pentru patru discuri mai devreme, în mod similar, trebuie să creăm partiție nouă pe noul disc conectat folosind fdisk comanda.
# fdisk / dev / sdf.
18. Din nou după crearea unei partiții noi pe /dev/sdf, confirmați raidul pe partiție, includeți unitatea de rezervă la /dev/md0 raid dispozitiv și verificați dispozitivul adăugat.
# mdadm --examine / dev / sdf. # mdadm --examine / dev / sdf1. # mdadm --add / dev / md0 / dev / sdf1. # mdadm --detail / dev / md0.
19. Acum, să verificăm dacă unitatea de rezervă funcționează automat, dacă cineva din disc nu reușește în matricea noastră. Pentru testare, am marcat personal că una dintre unități nu a reușit.
Aici, vom marca /dev/sdd1 ca unitate eșuată.
# mdadm --manage --fail / dev / md0 / dev / sdd1.
20. Permiteți-mi să obțin detaliile setului RAID acum și să verific dacă rezerva noastră a început să se sincronizeze.
# mdadm --detail / dev / md0.
Ura! Aici, putem vedea că piesele de schimb au fost activate și au început procesul de reconstruire. În partea de jos putem vedea unitatea defectă /dev/sdd1 listate ca defecte. Putem monitoriza procesul de construire folosind următoarea comandă.
# cat / proc / mdstat.
Aici am văzut cum se configurează RAID 6 folosind patru discuri. Acest nivel RAID este unul dintre setările scumpe cu redundanță ridicată. Vom vedea cum să configurați un RAID 10 imbricat și multe altele în următoarele articole. Până atunci, rămâneți conectat cu TECMINT.