RAID: Grundlagen und Systeme

Anzeige

Einleitung

Werfen wir erst einmal einen kleinen Blick zurück: Die ersten PCs wurden mit Diskettenlaufwerken ausgeliefert, die eine Kapazität von gerade mal 160 KByte besaßen. Im Laufe der Zeit verdoppelte sich dann immer wieder das Speichervolumen und gelangte dann auf seine heutige Größe von bis zu 1,44 MByte. Nun, wessen Rechner mit 2 Laufwerken ausgestattet war, konnte auf der einen das Betriebssystem und auf der anderen seine Daten und Programme unterbringen. Eine höchst unkomplizierte und einfache Sache. Doch da tauchen auch schon mal gleich zwei Probleme auf:

  1. Disketten halten nicht ewig und verursachen immer wieder einen Datenverlust. Auch die Sicherheitskopien verlieren mit der Zeit an Substanz.
  2. Bei größerer Datenmenge als 1,44 MByte muss man sich als Diskjockey betätigen und strapaziert nicht nur die Nerven des Benutzers, sondern auch die Hardware.

Also mussten neue Speichermedien entworfen werden, um sowohl den einen als auch den anderen Punkt zu umgehen. Die eine Möglichkeit war die, nochmals die Speicherdichte der Disketten zu erhöhen. Damit hätte man aber nur einen Teil erreicht. Und hier kommen endlich die Festplatten (früher auch Festspeicher genannt) zum Einsatz. Anfangs noch mit spärlichen 20 MByte, was für damalige Zwecke noch als vollkommener Wahnsinn an Speicherplatz galt (tja, damals gab es eben noch kein Windows…), später jedoch wurden auch hier die Kapazitäten mehr und mehr erhöht, bis zum heutigen Stand von bis zu 80 GByte (bei dieser Größe wollen wir es mal belassen). Hier wurde zwar auch die Speicherkapazität erhöht, doch wie sieht es mit der Datensicherheit aus? Schließlich können auch Festplatten mal ihren Geist aufgeben. Typische MTBF-Zeiten (MTBF = Mean Time Between Failure, durchschnittliche Zeit zwischen zwei Ausfällen) sind heutzutage über 500.000 Stunden. Rein rechnerisch kommt man so auf ca. 50 Jahre dauerhaftem Nutzen ohne Ausfall. Hängt man jetzt aber 100 Platten an einen Rechner, sinkt die Zuverlässigkeit auf unter ein halbes Jahr, sprich: man hat einen Ausfall pro Halbjahr. Das mag sich jetzt vielleicht ziemlich banal anhören, denn was kostet schon eine Festplatte, allerdings sind die sich darauf befindlichen Daten eben auch verloren, und die können mitunter unbezahlbar sein. Was also tun? Nun, hier bietet sich natürlich die Datenspiegelung an, was jedoch nur mit einer zweiten Platte effektiv und sinnvoll erreicht werden kann. Und hier kommt eine Technologie zum Einsatz, die man unter dem Oberbegriff RAID kennt.

Redundant Array of Independent Disks – wobei man anstatt “independent” auch “inexpensive” verwenden könnte – bedeutet nichts anderes, als dass der Ausfall eines Einzellaufwerks weder zu einem Ausfall des Gesamtsystems noch zur Betriebsunterbrechung oder sogar zum Datenverlust führt. Dies wird erreicht, indem man mehrere Techniken einsetzt wie

  • Mirroring (Spiegelung von zwei oder mehreren Platten an dem selben Controller),
  • Duplexing (dito, jedoch mit verschiedenen Controllern) und
  • Striping (Zusammenfassen von mehreren Laufwerken als ein logisches Laufwerk sowie blockweises Verteilen der darauf befindlichen Daten auf alle Datenträger).

Des weiteren gibt es noch unterschiedliche Typen eines RAID-Systems, die man vorher sorgfältig abwägen sollte, denn von ihnen hängt später die Gesamtperformance des Systems ab. Man nennt die Typen auch Level, was aber irreführend ist, da Level 1 nicht unbedingt auf Level 0 aufbaut.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert