přejít na obsah přejít na navigaci

Linux E X P R E S, Správa linuxového serveru: Softwarový RAID prakticky (pokračování)

Správa linuxového serveru: Softwarový RAID prakticky (pokračování)

debain_notext.png

V tomto díle se podíváme na růst pole, řešení krizových situací, write-intent bitmap, scrubbing diskového pole, monitorování a bootování z pole.


Růst pole

Růst pole (grow) je operace, při které se zvýší definovaný počet aktivních zařízení v poli. Tato operace je jednorázová a nevratná. Počet aktivních zařízení v poli již nelze snížit.

Růst pole má dvě fáze. Nejprve je třeba do pole přidat nové zařízení, o které má pole narůst:

mdadm --manage /dev/md0 --add /dev/sde1

Následně se provede růst:

mdadm --grow /dev/md0 --raid-devices=4

Růst lze provést pouze na čistém poli, tzn. pole nesmí být degradované.

Řešení krizových situací

V situaci, kdy dojde k vyřazení jednoho nebo více disků z pole, je třeba zachovat rozvahu a nejprve popřemýšlet. Pokud přijdete o redundanci (tzn. selhání dalšího zařízení z pole znamená ztrátu dat), pak je vhodnější před zahájením rekonstrukce pole provést zálohu dat. Samotná rekonstrukce zbývající disky podstatně zatíží a jediná neopravitelná chyba čtení na některém z disků může situaci velice zkomplikovat.

Samotná výměna vadného disku je poměrně jednoduchá, postup byl naznačen v minulém díle. Zařízení je obvykle již jádrem označeno jako vadné (faulty), takže postačí jej odebrat z pole a nové, funkční zařízení do pole zařadit:

mdadm --manage /dev/md0 --remove /dev/sda1
mdadm --manage /dev/md0 --add /dev/sdf1

Pokud víte, že disk je vadný, nebo očekáváte jeho brzké selhání, ale jádro ještě disk považuje za funkční, musíte jej za defektní nejprve označit, než se pustíme do jeho odebrání z pole:

mdadm --manage /dev/md0 --set-faulty /dev/sda1

Znovu raději zopakuji, že pro případ katastrofálního selhání, kdy selže krátce po sobě více disků než je pole schopné unést, nebo i pro případ chyby administrátora, atd., je nutné nebrat disková pole jako náhradu zálohování. Důležitá data je nutné pravidelně zálohovat nejlépe na nějaké geograficky odloučené místo.

V případě, že se dostanete do nějaké opravdu svízelné situace, kdy třeba pole nepůjde znovu sestavit, doporučuji se kromě rozvahy podívat do archívu e-mailové konference linuxového softwarového RAIDu. Tam také naleznete dostatek motivace k tomu, abyste začali svá důležitá data zálohovat, pokud to ještě neděláte.

Write-intent bitmap

Někdy se může stát, že některé aktivní zařízení v diskovém poli vypadne ze synchronizace s ostatními. To nemusí nutně znamenat, že disk je vadný, může se to stát třeba při nekorektním ukončení systému (způsobeném třeba výpadkem proudu), při problémech s kabeláží nebo s řadičem. Pokud k tomu dojde, je nutné pole opět zrekonstruovat, což obvykle trvá velmi dlouho.

Write-intent bitmap lze chápat podobně jako žurnál u souborových systémů - jádro se může takovém případě vyhnout plné synchronizaci, a synchronizovat pouze změněné oblasti, čímž se rekonstrukce podstatně zkrátí. Předpokladem je samozřejmě to, že do pole vracíme disk, který v něm již byl.

Pro write-intent bitmap je možné použít soubor (dle dokumentace však pouze na souborových systémech ext2 a ext3) nebo parametr "internal", který bitmapu uloží přímo na zařízení.

Skutečnost, že chcete použít write-intent bitmap je možné specifikovat již při vytváření pole parametrem -b. Pokud chcete write-intent bitmap vytvořit u již sestaveného pole, musíte použít režim "grow":

mdadm --grow /dev/md0 -b internal

Tímto příkazem byla vytvořena interní write-intent bitmap. Pokud se pak podíváte na /proc/mdstat, měli byste u příslušného zařízení vidět položku "bitmap":

debian:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] 
md1 : active (auto-read-only) raid5 hda2[0] hdc2[3] hdd2[2] hdb2[1]
      2939520 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      
md0 : active raid1 hdb1[1] hdc1[2] hda1[0]
      1172608 blocks [3/3] [UUU]
      bitmap: 144/144 pages [576KB], 4KB chunk

Pokud se z nějakého důvodu rozhodnete, že použijete nějaký soubor místo bitmapy interní, pak si dejte veliký pozor, aby to byl soubor na souborovém systému, který leží mimo dané pole.

Scrubbing diskového pole

Jelikož různé oblasti pevných disků jsou čteny a zapisovány s různou četností, může dojít k situaci, kdy některý sektor na disku v poli přestane být čitelný, aniž bychom si toho byli vědomi. Následný pokus o přečtení takového sektoru, který může proběhnout i za dlouho, vyvolá neopravitelnou chybu čtení (uncorrectable read error), která vyřadí daný disk z pole.

Nyní uvažte situaci, kdy vám selže nějaký disk, a na některém ze zbývajících disků zůstala tato nášlapná mina v podobě nečitelného sektoru. Po vložení nového disku do pole a zahájení jeho rekonstrukce dojde na čtení z tohoto sektoru, což vyřadí další disk z pole. Pokud máte pouze jeden redundantní disk, pak jste se právě dostali do velmi nepříjemné situace.

Tomuto problému předcházejí hardwarové řadiče tím, že čas od času pole zkontrolují (všechno včetně redundance přečtou). Linuxový softwarový RAID toto nedělá automaticky, ale je možné mu to pomocí cronu nařídit. Bývá dobré to provádět spíše častěji, tedy nejméně jednou týdně.

Samotný příkaz, který scrubbing spustí, vypadá takto (předpokládám pole md0):

echo "check" > /sys/block/md0/md/sync_action

Pokud vytvoříte bash skript s tímto příkazem (nebo odpovídajícími příkazy pro zbývající disková pole), nastavíte mu právo pro spuštění a umístíte do /etc/cron.weekly, zajistíte jeho automatické týdenní spouštění.

Monitorování pole

Disková pole je možné monitorovat stejným nástrojem (mdadm) jako pro jejich správu. Tento nástroj umí pracovat jako démon a hlásit události týkající se diskových polí. Jeho konfigurační soubor je /etc/mdadm/mdadm.conf, samotný démon by měl už rovnou běžet, pokud jste nainstalovali balíček mdadm.

Manuálová stránka konfigurační soubor velmi dobře popisuje, já tu zmíním dvě zajímavé volby:

MAILADDR mail@example_com,root@localhost
PROGRAM /root/skript_spusteny_pri_udalosti

Kromě obligátní e-mailové adresy, na kterou budou chodit e-maily s událostmi (předpokladem je samozřejmě funkční poštovní server), je možné specifikovat program, který mdadm při nějaké události spustí. Tomuto programu pak budou předány parametry zahrnující událost, zařízení odpovídající diskovému poli a, pokud to bude relevantní, označení disku v poli, kterého se událost týká.

Bootování z pole

Do doby, než budeme mít běžně k dispozici GRUB 2, lze bootovat pouze z RAIDu 1, a to ještě ne ve všech případech. Zjistil jsem, že některá speciální nastavení (jiná verze superbloku, apod.) mohou bootování z RAIDu 1 zamezit. Pokud budete sestavovat pole se specifickými parametry, vyzkoušejte si, je-li možné namountovat souborový systém z jehdnoho z disků (či oddílů) v daném poli. Pokud se to nepovede, pak z takového pole nepůjde nabootovat.

Chcete-li primárně vytvořit jiné pole než RAID 1 pro data, pak doporučuji vytvořit na všech discích malý oddíl (kolem 1GB maximálně), na kterém bude v RAIDu 1 oddíl s adresářem /boot. GRUB i LILO zvládnout nabootovat z RAIDu 1, a zbytek místa na discích můžete použít k vytvoření jiného typu pole.

Tímto bych tento díl ukončil. Příště nakousnu problematiku zdraví pevných disků a v souvislosti s tím technologii S.M.A.R.T.

Nahoru

Odkazy

Příspěvky

Martin Šín Správa linuxového serveru: Softwarový RAID prakticky (pokračování)
Martin Šín 25. 01. 2010, 06:08:29
Odpovědět  Odkaz 
V Debianu se o kontrolu pole zřejmě automaticky stará "checkarray" volaný jednou měsíčně z /etc/conf.d/mdadm. S bootováním z jiného pole než RAID 1 nemám dobrou zkušenost, ale může to být jen chyba způsobená něčím jiným.
Správa linuxového serveru: Softwarový RAID prakticky (pokračování)
Dramon 9. 12. 2010, 12:38:17
Odpovědět  Odkaz 
V RHELu se test RAID polí provádí taktéž automaticky 1x týdně.
Ještě by se asi patřilo zmínit, že interní write-intent bitmapa celkem brutálně sníží výkon pole při zápisu. Viz.manuálové stránky.
Správa linuxového serveru: Softwarový RAID prakticky (pokračování)
Jirka 6. 11. 2015, 11:15:26
Odpovědět  Odkaz 
Zdravím ve spolek, chtěl bych nasadit RAID 1 a tak zkouším ve VMware různé scénáře jak se bude pole chovat.
Stále se mi nedaří nabootovat z degradovaného pole.
Instaluji Debian 8.2 na takto rozdělené disky

/dev/sda1 250 MB - linux raid
/dev/sda5 1 GB - linux raid
/dev/sda6 20 GB - linux raid

/dev/sdb1 250 MB - linux raid
/dev/sdb5 1 GB - linux raid
/dev/sdb6 20 GB - linux raid

tyto disky pak spojené do raidu vzniknou

/dev/md0 250 MB ext4 /boot
/dev/md1 1 GB swap
/dev/md2 20 GB ext4 /

zavaděč GRUB jsem při instalaci nainstaloval na disk /dev/sda
po instalaci a prvním bootu systému jsem GRUB nainstaloval i na sdb příkazem
grub-install /dev/sdb
Bohužel ale když vyřadím disk sda tak mi stroj nenabootuje :(

Prosím o radu co dělám špatně...

Přidat názor

Nejsou podporovány žádné značky, komentáře jsou jen čistě textové. Více o diskuzích a pravidlech najdete v nápovědě.
Diskuzi můžete sledovat pomocí RSS kanálu rss



 
 

Top články z OpenOffice.cz