Autor: area51jan |
Info: im Forum diskutieren |
Datum: 20.09.2004, 14:46 Uhr |
|
Einleitung
Dieser Artikel befasst sich mit den wichtigsten Punkten zum Thema RAID-Systeme. Dazu gehören u.a. die jeweiligen RAID-Levels
und ihre Mischformen, Prüfsummenerstellung, zusätzliche Hardwareeigenschaften, die die ordnungsgemäße Funktion unterstützen, sowie Eigenschaften von Hard- und Software-RAID
Lösungen.
Hintergrund
RAID steht für "Redundant Array of Independent/Inexpensive
Disks". Der Begriff
"Redundant Array of Inexpensive Disks" soll übrigens 1987 an der Universität von Kalifornien, Berkeley, festgelegt worden sein.
Ein RAID-System besteht immer aus mehreren
Festplatten, die sowohl dem Benutzer als auch dem jeweiligem Betriebssystem als
eine einzige Festplatte erscheinen. Innerhalb dieses Systems werden die Daten
beim Schreiben abhängig vom gewählten RAID-Level im RAID-Array vorhandenen
Festplatten geschrieben. Das RAID-Array ist der Zusammenschluss von mehreren
Festplatten.
Dadurch kann, abhängig vom jeweiligen
RAID-Level, das Lesen/Schreiben der Daten im Idealfall beschleunigt
werden, da diese von allen Platten kommen können. Die maximale
Transfergeschwindigkeit, nicht Lese-/Schreibgeschwindigkeit, errechnet
sich somit aus der Addition aller Festplatten im RAID-Array.
Festplatte(1) + Festplatte(2) + ... +
Festplatte(n) = maximale Transfergeschwindigkeit
Die Grenze
wird nur noch durch die maximale Geschwindigkeit des Übertragungssystems
beschränkt, was bei den Hochleistungsserversystemen aktuell der PCI-X
2.0 533 Bus (wurde Anfang 2004 eingeführt) ist bei einer
Datentransferrate von 4,3 GB/s entspricht. Grundsätzlich gilt für
parallel geschaltete Festplatten, dass sie dieselbe Typspezifikation
besitzen sollten, um die bestmögliche Performance bieten zu können.
Diverse Partitionen auf einer Festplatte können zwar theoretisch auch
ein RAID-System bilden, jedoch erzielt man hierbei keinen
Geschwindigkeitsvorteil, da eine Festplatte nicht gleichzeitig auf
mehrere Partitionen zugreifen kann.
Zudem kann ein RAID-System
gleichzeitig auch mehrfach redundante Datensicherheit gewähren, indem
der gleiche Datensatz auf mehreren Festplatten geschrieben wird. Somit
können ruhig eine oder mehrere Festplatten im RAID-Array ausfallen, die
Datensicherheit wird von den restlichen Festplatten weiterhin gewährt.
Bei RAID-Systemen steht zunächst diese Sicherheit von Daten im
Vordergrund. Natürlich können auch beide eben genannten Varianten
miteinander kombiniert werden, aber dazu mehr in den jeweiligen
RAID-Leveln.
RAID-Systeme repräsentieren zu jederzeit verschiedene Kombinationen aus
Leistung, Zuverlässigkeit und Kosten. Durch diese Zusammenschaltung
erhält man somit zusammengefasst eine Erhöhung der Datensicherheit
(Redundanz), eine Steigerung der Transferraten und den Aufbau großer
logischer Laufwerke.
Geschichte des RAID
Die älteste Version einer RAID Installation hat ihren Ursprung Anfang der frühen 90er Jahre. Damals bot Novell Techniken wie Mirror und Duplex (SFT II).
Mirror: Mit Mirror hat man die Möglichkeit an einem Controller zwei Festplatten gleicher Kapazität zu betreiben.
Duplex: Duplex erweitert die Möglichkeit von Mirror, so dass ein zweiter Controller eingesetzt werden kann. Fällt ein Controller aus, so sind die Daten ohne Zeitverzögerung von der zweiten Platte verfügbar.
Diese Technik lies die Augen sämtlicher Administratoren leuchten, denn Datensicherheit ist entscheidend für den Erfolg und das Bestehen eines jeden Unternehmens.
Jeder Tag, jede Stunde und oftmals sogar jede Minute Datenausfall kann für ein Unternehmen viel Geld- und Imageverlust bedeuten. Die Kosten für die Wiederherstellung des Urzustandes sind dabei noch nicht einmal eingerechnet.
Aus diesen Gründen gehen Unternehmen dazu über, immer mehr Daten auf RAID-Systemen zu speichern, um die Datenverfügbarkeit zu erhöhen.
RAID ist nicht gleich RAID
Es existieren mehrere RAID-Levels, die über unterschiedliche Leistungsmerkmale verfügen. Die Grundlage der RAID-Technologie wird durch so genannte
"Stripe-Sets" gebildet. Dabei werden relativ kleine Datenblöcke, im Bereich von einigen KB, auf mehrere Festplatten verteilt. Welche Blockgröße wie spezifisch sinnvoll eingesetzt wird, folgt bei den jeweiligen RAID-Leveln.
Erhöhte Ausfallsicherheit bzw. Datenverfügbarkeit
RAID-Lösungen sind nahezu 100% ausfallsicher, da alle eine Redundanz bieten (ausgenommen RAID-0, NRAID (1. Fall) und JBOD, aber dazu später mehr). Der Ausfallgrad richtet sich in erster Linie nach den eingesetzten Hardwarekomponenten, welche den Anforderungen von RAID-Konfigurationen in jeder Hinsicht gerecht werden müssen.
Backplanes
Blackplanes stammen ursprünglich aus der klassischen SCSI-Welt, finden allerdings in immer mehr SATA-Systemen auch ihre Anwendung. Bei einer Backplane spricht von einer Platine, die an der Rückwand montiert alle Signale der
angeschlossenen Laufwerke zusammenführt. Anschliessend wird diese Backplane als ein Port an das Buskabel angeschlossen. Die Vorteile liegen hier klar auf der Hand, man unterbindet großes Kabelwirrwar im Gehäuse und verbessert den Luftstrom
um die einzelnen Laufwerke. Ein weiterer positiver Aspekt findet sich bei den Anschaffungskosten von teuren SCSI-Kabeln mit bis zu 8 Anschlüssen inkl. Terminator.
Backplanes ermöglichen es einzelne Laufwerke gezielt und ohne Unterbrechung des laufenden Betriebes auszutauschen (HotPlug/Swap) und erspart das mühsehlige Entfernen und Wiederanschliessen der Verkabelung. Die daraus resultierende
Zeitersparnis ist offensichtlich, denn nichts ist für ein Unternehmen schlimmer als ein Ausfall/nicht Abrufbarkeit der Datenbestände.
Backplanes enthalten eine zusätzliche Logik, um Spannungsschwankungen während des Einfügen oder Entfernen eines Laufwerks im laufenden Betrieb weitestgehend zu unterbinden.
Hot Plug/Hot Swap Funktionalität
 |
Ein sehr wichtiges Feature, welches RAID-Syteme prägen und ausmachen. 100%tige Datenverfügbarkeit kann nur gewährleistet werden, wenn die Maschinen stets in Betrieb sind. Allerdings kann es immer wieder zu Ausfällen kommen und dann muss die Ausfallzeit so minimal wie nur eben möglich gehalten werden.
Die Hot Plug/Hot Swap Technik ermöglicht es während des laufenden Betriebes entsprechend mit dieser Funktionalität ausgestatteten Hardwareelementen wie RAID-Controllern, Netzteilen oder Festplatten manuell auszutauschen, ohne den Einsatz der übrigen Elemente zu beeinflussen. Um sowohl elektrische als auch mechanische Probleme beim Austausch der Festplatten zu vermeiden, werden häufig Wechselrahmen
benutzt. Um den BUS bei einem Austausch zu erhalten erfolgt eine interne, seperate Terminierung des Festplattenlaufwerkes. |
Hot Fix
 |
Von Hot Fix spricht man, wenn in
einem lauffähigen RAID-System eine weitere Festplatte zur Verfügung
steht, aber noch nicht aktiviert bzw. in das System integriert
wurde. Zyklisch prüft der RAID-Controller die Funktionalität der
aktivierten Laufwerke. Im Falle eines Festplattenausfalls, wird
automatisch die defekte Festplatte ersetzt. Hot Fix wird dabei
unterteilt in: |
- Private Hot Fix
- nur für einen RAID Verband verfügbar
- Pool Hot Fix
- ein oder mehrere Hot Fix Laufwerke für einen oder mehrere RAID Verbände verfügbar
Performance
Je nach Einsatzgebiet kann sich die Performance, im Vergleich zu einem Einzellaufwerk, verbessern oder auch verschlechtern. Obwohl fast alle RAID-Systeme die gängigsten RAID-Level 1, 3, 4 oder 5 unterstützen, bieten Sie nicht auch gleichzeitig die gleiche Performance. Dies liegt daran, dass die Firmware von RAID-Controllern meist auf Flexibilität oder aber Performance optimiert wurde, beides lässt sich in der Regel nicht optimal vereinbaren.
Online Capacity Expansion
Das Online Capacity Expansion (OCE), zu deutsch Online-Kapazitätserweiterung, erlaubt das Hinzufügen von weiteren Festplatten in
ein bestehendes RAID-Array im laufenden Betrieb. Es ist daher nicht nötig das bestehende RAID-Array abzuschalten und die
zusätzlichen Datenträger einzubauen. Anschliessend kümmert sich der RAID-Controller um die vollständige Integrierung der neuen
Datenträger zum vorhandenen RAID-Level. Während der Erweiterung des neuen Datenträgers bleiben die Daten vollständig redundant,
abhängig vom eingesetzten RAID-Level.
Online RAID-Expansion
Bei der Online RAID-Expansion wird an ein vorhandenes RAID-Array eine weitere Festplatte angeschlossen, welche dem Anwender als weiteres Laufwerk zur Verfügung gestellt werden kann. Arbeitet das Betriebssystem mit einem Volume-Manager, so könnte dieses Laufwerk an das vorhandene RAID-Array angehängt, aber nicht in das vorhandene RAID-Array integriert werden.
RAID-Level-Migration
Diese Funktion ermöglicht bequem die Änderung eines RAID-Levels, dem Grad der Datensicherheit und Systemleistung im selben
RAID-Array im "On-the-Fly" Modus. Es ist daher nicht nötig die vorhandenen Daten aus beispielsweise Quellarray A nach Zielarray B
zu überspielen.
SAF-TE
Die Abkürzung SAF-TE steht für SCSI Accessed Fault-Tolerant Enclosure. Benötigt wird hierzu ein SCSI Prozessor Device und fungiert
als eigene SCSI-ID, also als ein normaler Teilnehmer wie eine Festplatte im RAID-Array. Die Kommuniktion erfolgt über den
SCSI-Prozessor auf dem RAID-Controller. Dieses SCSI-Device, welches auch in SATA-Systemen anzutreffen ist, kümmert sich um die
Verwaltung sowie Management im RAID-Array. Darüber hinaus überwacht das Device den Zustand und Einsatzbereitschaft der Festplatten
über den SCA (Single Connector Attachment) Anschluss sowie deren Temperaturen. Darüberhinaus werden auch Informationen über das
Gehäusetemperaturen und Funktionalität von Controllern, LEDs, Lüftern oder Netzteilen gesammelt, daher werden hierfür spezielle
Gehäuseanfertigungen benötigt.
Tagged/Native Command Queuing
Hinter TCQ (Tagged Command Queuing) steckt eine Einheit, die die eingehenden Befehle so anordnet, dass die Zugriffszeit auf die Sektoren der Festplatten verringert und somit die Leistungsfähigkeit erhöht wird. Viel mehr verbirgt sich eigentlich nicht dahinter. Grundvoraussetzung ist jedoch, dass die Festplatten Tagged Command Queuing unterstützen, da nur das Laufwerk weiss, wo genau manche Sektoren gespeichert sind. Das Laufwerk ermittelt dazu, wie es am schnellsten auf diese angeforderten Sektoren zugreifen kann, damit diese zusammengesetzt die angeforderte Datei ergeben und zurückgeliefert werden kann.
Beim Native Command Queuing können mehrere eingehenden Befehle gleichzeitig an das Laufwerk gesendet werden. Das Laufwerk ordnet die Reihenfolge neu an, sodass die Anzahl der nötigen Zugriffe zum Ausführen der benötigten Befehle verringert werden kann. Durch diese Neuanordnung der Befehle können theoretisch die Rotationen des Festplattenlaufwerks verringert und der Datendurchsatz optimiert werden. Damit die Befehle durch die Neuanordnung weiterhin zuordbar bleiben, bekommt jedes Befehlskommando ein Kennzeichen, welches dem Host mitgeteilt wird. Somit kann dieser jederzeit nachvollziehen, welche Anfrage gerade abgearbeitet wird.
Damit dieses Feature anwendbar ist, müssen Controller, Laufwerk und der Treiber das TCQ/NCQ unterstützen. Einige Systemkernel, zum Beispiel der Linux 2.5, haben ein überarbeitetes Subsystem für blockorientierten I/O (Input/Output), welches dem Gerätetreiber diese Aufgabe abnimmt. Dadurch ist die Treiberprogrammierung wesentlich einfacher als auch weniger fehleranfällig geworden.
Die NCQ-Technologie wird vor allem von IBM seit mehreren Laufwerksgenerationen eingesetzt neuerdings auch von Maxtor, während Hersteller wie Western Digital und Seagate das TQC verwenden.
|