You are on page 1of 20

Storage Guide

Grundlagen

Technologien

Lsungen
Ausgabe 26

Juni 2012
Backup fr Big Data
Mehr Efzienz fr den
Storage
Flexible Sicherungen
in Mischumgebungen
Scale-out-NAS fr
extreme Datenmengen
Neue Technologien
fr schnelleres Backup
Highend-Cache fr
Datenbanken
Unied Storage im Cluster
Kombinationen aus Disk-
und Tape-Devices
Zum Thema Speicherefzienz
Innen grer als auen
Die Storage-Systeme von NetApp
2011 NetApp. Alle Rechte vorbehalten. nderungen vorbehalten. NetApp, das NetApp Logo und Go further, faster sind Marken oder eingetragene Marken von NetApp Inc. in den USA
und/oder anderen Lndern. Alle anderen Marken oder Produkte sind Marken oder eingetragene Marken der jeweiligen Rechtsinhaber.
Man muss nicht alles
speichern, was man
speichern muss.
Will heien, dass Daten,
die doppelt und dreifach
gespeichert wurden, nur
Speicherplatz verschwenden.
Die Software von NetApp
dedupliziert diese Daten und
zusammen mit der beraus
sparsamen Snapshot-Tech-
nologie sowie einigen andere
cleveren Funktionen knnen
Sie Ihren Speicherbedarf je
nach Anwendung und
Einsatzbereich um bis zu
80% reduzieren.
Das spart Platz, Geld und
Energie.
www.netapp.de
07042011_Anzeigenlayout TIM.indd 1 08.04.2011 10:11:21 Uhr
Editorial
Ein Thema, das wahrscheinlich schon fr unter-
schiedlichste Bereiche diskutiert wurde! Beim aktuellen
Hype um Big Data interessiert den Betrachter erst
einmal: Was bedeutet gro im Zusammenhang mit
Daten? Habe ich Big Data und brauche ich in diesem
Zusammenhang neue, spezielle Lsungsanstze?

Big Data bezeichnet auergewhnlich groe
Datenmengen, die in Bezug auf die Haltung, Sicherung,
Verarbeitung, Analyse und Bereitstellung eine besondere
Herausforderung darstellen. Dazu kommt, dass hug
unterschiedlichste Datentypen und -quellen zusammen-
kommen und analysiert werden mssen. Probleme ent-
stehen hierbei grundstzlich in den verschiedensten Elementen der IT-Infrastruktur, wie auch
bei der Nutzung der Informationen und den damit verbundenen Prozessen und Ressourcen.
Habe ich Big Data oder welches Volumen ist in diesem Zusammenhang als gro zu
bewerten? In vielen Publikationen schwanken die Angaben von Terabytes bis ber Zetta-
bytes. Der Grund hierfr ist, dass nicht eine nominell denierbare Gre Big Data klas-
siziert, sondern die Herausforderung, die mit einem steigenden Datenvolumen beginnt.
Oder mit anderen Worten: Es kommt darauf an, ob das hohe Datenvolumen fr die eigenen
Anforderungen ein Problem darstellt, das mit herkmmlichen Anstzen nicht zu lsen ist.

Bei den bisherigen Wachstumsraten und den Prognosen fr die kommenden Jahre
knnte man jetzt davon ausgehen, dass sich die meisten Unternehmen frher oder spter
in einer Big Data-Situation benden. Tatschlich lassen sich aber die meisten Herausfor-
derungen ber die Kombination von jeweils aktueller Technologie mit einem angepassten
Datenmanagement bewltigen. Wenn diese Mglichkeit nicht mehr ausreicht, um den
Anspruch an Verfgbarkeit und Performance der Informationsverarbeitung zu erfllen,
kommen spezielle Technologien ins Spiel, die unter dem Begriff Big Data zusammen-
gefasst sind. Somit ist nicht nur die Gre des Datenvolumens entscheidend, sondern
auch die Art der Information, die Relevanz und der Anspruch an die Verfgbarkeit der
Informationen.
Um die einleitende Frage zu beantworten: Die Gre allein ist nicht entscheidend,
es kommt auf die speziellen Rahmenparameter und Anforderungen an!
Bijan Taleghani
Leiter Produkt Marketing und Business Development
TIM AG
Ist die Gre entscheidend? Inhalt
Konsolidierte Datensicherung
Mit der neuen Funktion OnePass fhrt
CommVault in Simpana die Module fr Backup,
Archivierung und Reporting zusammen.
Intelligentes Storage-Management
Mit Dell Compellent lsst sich eine weitgehend
automatische Storage-Verwaltung realisieren.
Problemlser
CA ARCserve hlt die Werkzeuge bereit,
um auch in heterogenen Umgebungen alle
Sicherungs aufgaben bewltigen zu knnen.
Big Data im Griff
EMC Isilon hat sich auf die Entwicklung von
Storage-Systemen speziell fr die Verarbeitung
von extrem groen Datenmengen spezialisiert.
Schnelleres Backup
Symantec NetBackup 7.5 enthlt neue
Funk tionen, um die Sicherungslufe zu
beschleu nigen und zu vereinfachen.
Performance-Boost per Cache
Mit VFCache prsentiert EMC eine Lsung, um
Anwendungen, die nach hohen IOPS-Raten
verlangen, einen zustzlichen Schub zu geben.
Vereinfachte Skalierung
Im Cluster-Mode von Data ONTAP 8.1 virtuali-
siert NetApp die Storage-Hardware und richtet
einen einheitlichen Global Namespace ein.
Disk und Tape im Zusammenspiel
Quantum demonstriert, dass Tapes noch lange
nicht tot sind, sondern sich mit Disk-basierten
Systemen sinnvoll ergnzen.
4
5
6
8
11
12
15
18
Impressum
Eine Publikation der TIM AG
Idee und Konzept:
TIM AG, Schobergstr. 21, 65201 Wiesbaden
Projektleitung:
TIM AG, Stefanie Blank, 0611 2709-523
Redaktion:
twins ad, Roland Freist
Design, Layout und Herstellung:
twins ad, Full-Service Werbeagentur,
Schwanthalerstr. 91, 80336 Mnchen,
089 2102989-91
Die verwendeten Produktbezeichnungen und Markennamen
sind eingetragene Warenzeichen der jeweiligen Hersteller.
Ihr Feedback ist uns wichtig:
Wie gefllt Ihnen der StorageGuide? Wird der Inhalt nach Ihrer Meinung
informativ und kompetent behandelt? Gibt es ein Thema, ber das Sie in der
nchsten Ausgabe gerne lesen mchten? Ob Kritik oder Lob, wir freuen uns
auf Ihre Anregungen!
Stefanie Blank, TIM AG, 0611 2709-523, stefanieb@tim.de
Zum Thema Speicherefzienz
Innen grer als auen
Die Storage-Systeme von NetApp
2011 NetApp. Alle Rechte vorbehalten. nderungen vorbehalten. NetApp, das NetApp Logo und Go further, faster sind Marken oder eingetragene Marken von NetApp Inc. in den USA
und/oder anderen Lndern. Alle anderen Marken oder Produkte sind Marken oder eingetragene Marken der jeweiligen Rechtsinhaber.
Man muss nicht alles
speichern, was man
speichern muss.
Will heien, dass Daten,
die doppelt und dreifach
gespeichert wurden, nur
Speicherplatz verschwenden.
Die Software von NetApp
dedupliziert diese Daten und
zusammen mit der beraus
sparsamen Snapshot-Tech-
nologie sowie einigen andere
cleveren Funktionen knnen
Sie Ihren Speicherbedarf je
nach Anwendung und
Einsatzbereich um bis zu
80% reduzieren.
Das spart Platz, Geld und
Energie.
www.netapp.de
07042011_Anzeigenlayout TIM.indd 1 08.04.2011 10:11:21 Uhr
CommVault
Weitere Informationen: TIM AG Tel. 0611 2709-0 www.tim.de
Die Datenmenge, die weltweit erhoben,
digital gespeichert und ausgewertet wird, steigt
exponentiell an. Das Marktforschungsinstitut
Gartner beziffert das jhrliche Wachstum auf
bis zu 80 Prozent, wozu vor allem einfache,
unstrukturierte Anwenderdaten beitragen. Aber
auch maschinell erzeugte Daten wie etwa die
Protokolle von Telekommunikationsrmen, die
Aufzeichnungen zu den gettigten Finanz-
transaktionen an den groen Brsenpltzen
oder die Messergebnisse von Wetterstationen
nehmen rasant zu. Parallel dazu kmpfen auch
Webdienste, Suchmaschinen, Social Networks,
Buchungssysteme oder Webshops mit den rie-
sigen Datenvolumen, die sich auf ihren Servern
ansammeln.
Fr die IT-Abteilungen ergeben sich da-
raus neue Herausforderungen, da die herkmm-
lichen Backup-Anwendungen mit der Verarbei-
tung dieser Datenmengen oftmals berfordert
sind. Zum einen fehlen die Ressourcen, um diese
Massen an unstrukturierten Daten zu analysie-
ren und zu indexieren. Zum anderen sind aber
auch die Backup-Zeitfenster zu klein, um die
Daten zu sichern und zu archivieren. Um diese
Probleme adressieren und gezielt Lsungsmg-
lichkeiten entwickeln zu knnen, werden groe,
unstrukturierte Datenmengen im Tera-, Peta-
oder Exabyte-Bereich mittlerweile unter dem
Begriff Big Data zusammengefasst.
Mit Simpana bietet CommVault eine L-
sung an, die auf einer Plattform Module unter
anderem fr die Datenanalyse, das Backup, die
Archivierung, das Storage Ressource Manage-
ment und die Deduplizierung vereint. Doch
obwohl diese Module perfekt aufeinander abge-
stimmt sind, sodass keine Reibungsverluste ent-
stehen, kann es bei der Bearbeitung von extrem
groen Datenmengen zu den oben genannten
Problemen kommen.
CommVault hat daher die aktuelle Ver-
sion 9 von Simpana mit einer Funktion ausge-
stattet, die den Umgang mit Big Data erheblich
vereinfacht und beschleunigt. Diese Funktion
namens OnePass ist ein integraler Bestandteil
von Simpana und versetzt den Administrator in
die Lage, seine Service Level Agreements (SLAs)
trotz steigender Datenvolumina einzuhalten.
Aus drei mach eins
Das steckt dahinter: Die Simpana-Mo-
dule fr das Backup, die Archivierung und das
Reporting verwenden jeweils eigene Agenten.
Diese greifen zwar im Backup auf die gleiche
Infrastruktur zurck, man kann sie also ber das
gleiche Job-Management, die gleiche grasche
Oberche und das gleiche Reporting verwalten.
Trotzdem sind es drei verschiedene Agenten, die
ihre Arbeit unabhngig voneinander erledigten.
Mit OnePass hat CommVault die Inte-
gration der einzelnen Module nun noch einen
Schritt weitergefhrt und die Agenten fr
Backup, Archivierung und Reporting zu einem
zusammengefasst. Das hat den Vorteil, dass die
drei Vorgnge von einem gemeinsamen Prozess
erledigt werden und nur noch eine Scan-Phase
erforderlich ist. Damit verkrzt sich die Ausfh-
rung um mehr als 50 Prozent und nimmt zudem
weniger Hardware-Ressourcen in Anspruch.
Gleichzeitig sinkt auch der administrative Auf-
wand. Auf diese Weise lassen sich mit den vor-
handenen Systemen auch grere Datenmen-
gen verarbeiten.
Bei groen Datenvolumen wird jedes
Kopieren oder Verschieben von Daten zu einem
zeitraubenden Vorgang. Um die Datenbewe-
gungen daher so gering wie mglich zu halten,
fhrt OnePass ausschlielich inkrementelle File-
Backups durch. Nach einer ersten Vollsicherung
werden immer nur noch die Daten gesichert,
die seit dem letzten inkrementellen Backup neu
hinzugekommen sind oder sich verndert ha-
ben. Erst im Nachhinein fhrt Simpana dann
synthetische Vollbackups durch, setzt also
die in krementellen Backup-Stze zu Vollsiche-
rungen zusammen. Zusammenfassend lsst
sich OnePass also als eine Funktion beschrei-
ben, die die wichtigsten Sicherungsvorgnge
zusammenfasst und damit verkrzt sowie die
Nachbearbeitung der Daten nachgelagert in die
Infrastruktur von Simpana verlegt.
Der Kunde hat die Wahl
Neben OnePass sind in Simpana aber
auch nach wie vor die spezialisierten Agenten
verfgbar. Der Kunde hat also die Wahl, ob er
OnePass einsetzen will oder die Einzel-Agenten.
Auf diese Weise ist er exibel und kann bei-
spielsweise die Backup-Funktion von Simpana
nutzen und die Archivierung mit einem anderen
Produkt erledigen.
Die Flexibilitt bleibt auf diese Weise
aber auch in anderer Hinsicht gewahrt. Wenn
Backup und Archivierung ber den Agenten
von OnePass durchgefhrt werden, landen
alle Daten zunchst im Simpana ContentStore,
einem virtuellen Datenspeicher. Erst danach
werden die zur Archivierung bestimmten Daten
regel gesteuert verschoben und im Zuge eines
Stubbing-Prozesses durch Verweise auf die im
Archiv gespeicherten Kopien der Datenstze
ersetzt. Es ist jedoch technisch nicht mglich,
Backup und Archivierung von vornherein auf
unterschiedliche Speicher-Subsysteme auszu-
fhren, also beispielsweise aktuelle Daten fr
schnelle Restore-Vorgnge auf Festplatte zu
sichern und gleichzeitig weniger oft bentigte
Daten fr eine lngerfristige Aufbewahrung
auf Tape zu verschieben. Das lsst sich jedoch
nach wie vor mit den Einzel-Agenten organisie-
ren. Welche Methode im Einzelfall jeweils vor-
teilhafter ist, wird im Beratungsgesprch beim
Kunden geklrt.
Konsolidierte Datenverwaltung
Im Zeitalter von Big Data sind neue Vorgehensweisen beim Sichern und Archivieren gefragt. CommVault stellt
mit OnePass eine clevere Lsung bereit.
Durch den kombinierten Prozess wird die Dauer fr Backup, Archivierung und Reporting im Vergleich zu tradi-
tionellen Methoden erheblich verkrzt.
xx yy
Die aktuelle Situation in der IT-Landschaft
ist gekennzeichnet durch drei groe Herausfor-
derungen: ein rasantes, oftmals unvorherge-
sehenes Datenwachstum, eine immer raschere
Abfolge von neuen Anforderungen an die IT-
Abteilungen und Massenspeicher-Strukturen,
die sich nur schwer an die vernderten Bedin-
gungen anpassen lassen. Vor allem der Sieges-
zug der Mobilgerte bereitet den Administra-
toren Kopfschmerzen: Die Anwender verlangen
zunehmend nach einem zeit- und
ortsunabhngigen Zugriff auf die
Unternehmensdaten, und zwar
von allen ihren Gerten aus. Dazu
zhlen neben den klassischen
Notebooks zunehmend auch Tab-
let-Computer und Smartphones.
Gleichzeitig ist ein immer gre-
rer Aufwand erforderlich, um die
stndig wachsenden Datenvolu-
men in den Unternehmen zu ver-
walten, zu pegen und vor Verlust
und unberechtigten Zugriffen zu
schtzen.
Da die Budgets der IT-
Abteilungen mit diesen Entwick-
lungen nicht Schritt halten, sind
neue Lsungen gefragt, die den
Administrator entlasten und das Datenmanage-
ment strker automatisieren. Dabei sollten sie
natrlich auch mit den enormen Datenbestnden
der heutigen Zeit umgehen knnen. Mehr Ef-
zienz heit das Schlagwort, mit dem sich die
Anforderungen an ein modernes Storage-System
zusammenfassen lassen. Das hat sich auch
Compellent auf die Fahnen geschrieben, eine
Firma, die seit rund zwei Jahren zu Dell gehrt.
Die Compellent-Technologie
Compellent ist heute eine Storage-Marke
von Dell. Die Firma vertreibt unter dieser
Bezeichnung das Storage Center, ein SAN-
basiertes Storage-System. Es verwendet die von
Compellent entwickelte Fluid-Data-Architektur,
mit der die gespeicherten Daten auf Blockebene
aktiv und intelligent verwaltet werden.
Die Compellent-Systeme arbeiten mit so-
genannten Pages, in denen sie die Datenblcke
zusammenfassen. Die Gre dieser Pages lsst
sich zwischen 512 KByte und 4 MByte kongu-
rieren, der Standardwert sind 2 MByte. Zu jeder
dieser Pages werden Metadaten erfasst, in de-
nen unter anderem festgehalten ist, zu welchem
Volume die Page gehrt, auf welchem RAID-
Level sie aktuell liegt und wann die Daten das
letzte Mal angefordert wurden.
Diese Metadaten ermglichen es, den
Storage zu virtualisieren. Dabei wird die ge-
samte Speicherkapazitt zu einem groen Pool
zusammengefasst. Wenn in einem SAN etwa
30 Terabyte SATA-Platten und 10 Terabyte SSDs
vorhanden sind, stellt Compellent das als einen
Pool von 40 Terabyte Storage dar. Der Clou ist
dabei, dass das System ber die Metadaten
wei, wie sich die Speicherkapazitt zusammen-
setzt und die Daten automatisch verteilt.
Ein Beispiel: Eine Firma betreibt einen
Webshop mit einer umfangreichen Datenbank-
Anwendung. In dieser Datenbank liegen Stamm-
daten, die verhltnismig hug angefordert
werden, und Orderdaten, die mehrere Jahre
zurckreichen. Die lteren Orderdaten werden
lediglich noch aus rechtlichen Grnden aufbe-
wahrt, aufgerufen werden sie nicht mehr.
Ein Compellent-System wrde nun fest-
stellen, dass auf die Stammdaten sehr oft zuge-
griffen wird, und sie daher automatisch auf den
SSD-Storage legen. Die seltener angefragten
Orderdaten hingegen wrde es auf die SATA-
Platten verschieben.
Ein Storage Center von Compellent be-
herrscht also ein klassisches Tiering. Doch im
Unterschied zu Produkten anderer Hersteller
erfolgt die Zuordnung der Daten zu den ein-
zelnen Tier-Leveln automatisch. Es ist nicht
einmal erforderlich, entsprechende Regeln zu
denieren. Kommen neue Daten hinzu, werden
sie zunchst auf das schnellste vorhandene Tier
geschrieben. ber die Metadaten ermittelt das
System dann, wie hoch die Nachfrage nach den
einzelnen Pages ist und verschiebt sie auf die
passenden Tiers. Da die Pages mit einem Volu-
men zwischen 512 KByte und 4 MByte verhlt-
nismig klein ausfallen, ist gewhrleistet, dass
der vorhandene Storage mit optimaler Efzienz
ausgenutzt wird.
Der Administrator muss in diesen Vorgang
nicht eingreifen, alles geschieht automatisch.
Auch wenn zustzliche Festplatten hinzugefgt
werden, muss er nichts weiter tun das Sys-
tem nimmt sie in seinen Pool auf und reorga-
nisiert selbststndig die Daten.
Es gibt keine RAID-Verteilung
wie bei anderen Systemen, und
der Administrator muss auch
keine Disk-Gruppen anlegen.
Compellent-Systeme sind da-
her nicht nur besonders ef-
zient, sondern auch besonders
einfach zu verwalten.
Neben dem automa-
tischen Tiering beherrschen
die Compellent-Systeme noch
weitere Techniken zur optima-
len Auslastung des Storage.
Dazu gehren Thin Provi-
sioning, Snapshots, die ledig-
lich die nderungen seit dem
letzten Snapshot festhalten,
sowie Thin Replication zum Kopieren der
Snapshots auf Remote-Systeme. Alle zusammen
tragen dazu bei, dass die Storage-Kosten ge-
senkt werden, whrend gleichzeitig der Verwal-
tungsaufwand so gering wie mglich ausfllt.
Dell vom Reseller zum Hersteller
Dell ist in den letzten Jahren vom Storage-
Reseller zum Storage-Hersteller geworden.
Gleichzeitig ist die Firma aber auch der dritt-
grte PC-Hersteller der Welt und hat darber
hinaus auch verschiedene Server-Linien, Netz-
werk-Zubehr, wie beispielsweise Switches und
ein groes Repertoire an Peripherie-Gerten,
wie etwa Drucker im Programm. Dell ist damit
in der Lage, seinen Kunden eine komplette,
aufeinander abgestimmte Infrastruktur zur
Verfgung zu stellen. Da die Produkte aus dem
eigenen Haus auf eine reibungslose Zusammen-
arbeit getestet werden, die Storage-Systeme
etwa zusammen mit Servern und Switches, hat
der Kunde die Gewhr, dass die Aufbau- und
Kongurationsphase sehr kurz ausfllt. Zudem
kann er auf einen einheitlichen Support-Kanal
zurck greifen auch das bringt mehr Efzienz
in eine IT-Abteilung.
DELL
Weitere Informationen: TIM AG Tel. 0611 2709-0 www.tim.de 4 5
Dell Fluid Data - integriertes, intelligentes Management auf Blockebene und Automati sie-
rung zur Verwaltung von Unternehmensdaten und zur Senkung der Gesamtspeicherkosten.
Intelligentes Storage-Management
Mit den Compellent-Systemen bietet Dell besonders efziente und einfach zu verwaltende professionelle
Storage-Lsungen an.
CA
Die Virtualisierung von Servern und Ap-
plikationen ist bereits seit mehreren Jahren ein
erprobtes Mittel zur Efzienzsteigerung von Re-
chenzentren. Ein physischer Host kann mehrere
virtuelle Maschinen aufnehmen, was zu einer
besseren Auslastung der CPU fhrt, den Platz-
und Energiebedarf senkt und die Administra-
toren entlastet.
Doch lngst nicht alle Server sind virtu-
alisiert. Laut den Daten der Marktforschungs-
site v-index.com liegt der Virtualisierungsgrad
in Deutschland nur bei etwa 45 Prozent, wobei
auf einen Host durchschnittlich sechs bis sieben
Maschinen kommen. Parallel dazu existieren in
nahezu allen Unternehmen dedizierte physische
Server, bei denen eine Virtualisierung erst noch
geplant ist oder die sich wegen Inkompatibi-
litten oder hohem Ressourcenbedarf nicht
virtualisieren lassen. Zu der letztgenannten
Gruppe gehren vor allem groe, unterneh-
menskritische Datenbanken und ERP-Systeme
wie Oracle oder SAP.
Neben dem Mix aus virtualisierten und
physischen Servern ist fr die meisten Rechen-
zentren eine gewachsene, heterogene IT-Infra-
struktur mit unterschiedlichen Betriebs systemen
und Applikationen mehrerer Hersteller typisch.
Von dieser zentralen Stelle aus wird oft auch
gleich die IT kleinerer Vertriebsniederlassungen
betreut, meist mit einer Mischung aus Remote-
Wartung und regelmigen Besuchen eines Tech-
nikers. blicherweise nden von diesen Zweig-
stellen aus vor allem Zugriffe auf die zentralen
Datenbanken am Firmensitz statt, der Anteil lokal
gespeicherter Daten ist eher gering. Meist handelt
es sich sowohl bei den Servern wie auch bei den
Clients um eine reine Windows-Umgebung.
Virtualisierung beeinusst Datensicherung
Eine solche IT-Landschaft stellt die IT-
Abteilung bei der Datensicherung vor einige
Herausforderungen. Vor allem die Virtualisie-
rung trgt dazu bei, dass Backup- und Restore-
Vorgnge komplizierter werden. So ist zumeist
gewnscht, dass nicht nur ein kompletter Host
inklusive smtlicher virtuellen Maschinen ge-
sichert werden kann. Daneben soll es auch die
Mglichkeit geben, gezielt einzelne Maschinen
zu sichern und sie im Disaster-Recovery-Fall
auch genauso granular wiederherzustellen. Und
mehr noch: Oftmals geht es lediglich um eine
einzige Datei, die versehentlich gelscht wurde
und nun rekonstruiert werden soll. Dafr den
Restore der gesamten virtuellen Maschine oder
gar des Hosts einzuleiten, wre uerst inefzi-
ent und viel zu zeitaufwendig. Stattdessen soll
es mglich sein, auch einzelne Files aus virtu-
ellen Umgebungen im Backup-Satz gezielt an-
zusteuern und an die alte Stelle zu kopieren.
Doch nicht immer sind es Dateien, fr die
ein Restore bentigt wird. Bei Applikationen wie
Microsoft Exchange geht es um einzelne E-Mail-
Nachrichten, die mitsamt Anhngen wiederher-
gestellt werden mssen, bei Datenbanken sind
es Datenstze. Eine Backup-Anwendung sollte
also auch einen Applikationsschutz bieten, der
es ermglicht, gezielt die Objekte der genannten
Anwendungen zurckzuholen und das eben
auch in virtuellen Umgebungen.
Um die Daten der entfernten Auenstel-
len zu sichern, bietet sich eine Replikation auf
die Server im Rechenzentrum der Unterneh-
menszentrale an. Auf diese Weise ist jederzeit
eine Sicherungskopie der Daten verfgbar, ohne
dass in den einzelnen Niederlassungen Man-
power fr die Verwaltung eingesetzt werden
msste. Wnschenswert ist natrlich, dass sich
der Replikationsvorgang vom Rechenzentrum
in der Unternehmenszentrale steuern lsst, so-
dass vor Ort keine Mitarbeiter dafr abgestellt
werden mssen.
CA ARCserve als umfassende Backup-Lsung
Mit den Produkten aus der ARCserve-
Familie stellt CA Technologies eines der um-
fangreichsten Backup-Pakete auf dem Markt
bereit. In der aktuellen Version r16 besteht es
aus den Komponenten CA ARCserve Backup,
CA ARC serve D2D, CA ARCserve Replication,
CA ARCserve High Availability sowie den App-
Erweiterungen CA ARCserve Central Protection
Manager, CA ARCserve Central Virtual Standby,
CA ARCserve Central Host-Based VM Backup
und CA ARCserve Central Reporting. Mit ihren
unterschiedlichen Anstzen bei der Datensi-
cherung bei gleichzeitiger Integration in eine
grere Produktfamilie lassen sich damit prak-
tisch alle Sicherungsaufgaben im Unternehmen
lsen.
Das Flaggschiff der ARCserve-Familie,
CA ARCserve Backup, arbeitet sowohl mit phy-
sischen wie mit virtualisierten Servern zusam-
men und zeigt sich dabei uerst exibel: Sie
untersttzt VMware, Microsoft Hyper-V und
Citrix XenServer und kann einzelne virtuelle
Maschinen genauso sichern wie den gesamten
Server. Beim Restore ist es dann mglich, phy-
sische Maschinen auch in einer virtuellen Um-
gebung zu rekonstruieren. Und ganz gleich, ob
physischer oder virtueller Server: Immer ist ein
Restore einzelner Dateien mglich, ohne dass
Datensicherung in heterogenen,
virtualisierten Infrastrukturen
Mit den Produkten aus der CA ARCserve-Familie erhlt der Kunde die Werkzeuge, um auf nahezu jede
Herausforderung bei der Sicherung seiner Daten eine Antwort zu nden.
CA ARCserve macht exibel: Der Anwender kann Backups in der Auenstelle durchfhren und die Daten in eine
DR-Lokation replizieren oder die Daten zunchst in die Zentrale replizieren und dort konsolidiert sichern.
zunchst die gesamte virtuelle Maschine wie-
derhergestellt werden msste.
Mit dem in das Dashboard der Software
integrierten Storage Resource Management
(SRM) kann sich der Administrator jederzeit
einen berblick darber verschaffen, wie der
aktuelle Stand der laufenden und geplanten
Backup-Lufe ist. Er sieht aber auch, ob Fehler-
meldungen der Hardware vorliegen, zu welchem
Zeitpunkt das letzte Backup durchgefhrt wur-
de und mit welchem Ergebnis es beendet wurde.
CA ARCserve Backup bringt eine kosten frei
integrierte Deduplizierungsfunktion mit, ber
die sich das Volumen der Backup-Stze deutlich
reduzieren lsst. Die Software beherrscht zudem
eine Verschlsselung, ber die sich die Daten
auf den erzeugten Tapes vor fremden Zugriffen
schtzen lassen. Ein integriertes Schsselma-
nagement sorgt dafr, dass sich der Administra-
tor um die Kennwrter fr die einzelnen Bnder
nicht zu kmmern braucht. Er muss lediglich ein
Master-Passwort eingeben, um Zugriff auf die
einzelnen Tapes zu bekommen.
Snapshots von Remote-Standorten
Eine noch verhltnismig neue Kom-
ponente in CA ARCserve ist ARCserve D2D, was
fr Disk to Disk steht. Die Software sichert also
ausschlielich auf Festplatten. Nach einem ein-
maligen Vollbackup legt sie in der Folge blockba-
sierte inkrementelle Sicherungen als Snapshots
an. Dank der von CA patentierten I
2
-Techno logie
kann das alle 15 Minuten erfolgen, um auf die-
se Weise Datenverluste so gering wie mglich
zu halten. Der Administrator kann die einzel-
nen Sicherungen gezielt anwhlen, um so einen
bestimmten System zustand wiederherzustellen.
Beim Ausfall eines kompletten Servers lsst sich
CA ARCserve D2D fr ein Bare-Metal-Recovery
einsetzen, das Programm kann also den kom-
pletten Festplatten inhalt auf einem anderen
Rechner im Originalzustand rekonstruieren. Die
Hardware muss dabei nicht einmal identisch zu
der des ausgefallenen Servers sein.
Auf der anderen Seite ist es aber auch
mglich, lediglich einzelne Volumes oder auch
Dateien zurckzukopieren.
Und: CA ARCserve D2D
bietet eine direkte Unter-
sttzung fr Microsoft
Exchange und SQL Ser-
ver. Das bedeutet, dass
der Administrator in der
Lage ist, gezielt einzelne
Elemente wie etwa E-Mails
aus Exchange wiederher-
zustellen, ohne dass die
gesamte Datenbank der
Anwendung rekonstruiert
werden msste.
CA ARCserve D2D
eignet sich vor allem fr Auenstellen, die
ber keine eigene IT-Abteilung verfgen und
ausschlielich mit Windows-basierten Com-
putern arbeiten. Da dort oftmals nur wenige
Daten produziert werden, knnen sie mit einer
inkrementellen Sicherung auch sehr schnell
ber ein schmalbandiges WAN ins zentrale Re-
chenzentrum bertragen werden. Diese Daten-
bertragung lsst sich mit ARCserve D2D sogar
verschlsseln, sodass Auenstehende die Daten
nicht einsehen knnen. Sollte einmal ein Restore
notwendig sein, lassen sich die Daten auf dem
gleichen Weg wieder zurck in die Auenstelle
transferieren.
Zur Fernsteuerung der Sicherungen an
den Remote-Standorten bietet CA Technologies
ARCserve Central Protection Manager an. Mit
dieser Erweiterung kann der Anwender alle seine
ARCserve D2D-Installationen von einer einheit-
lichen Konsole aus verwalten. D2D selbst lsst
sich lediglich an dem Rechner steuern, auf dem
es eingerichtet ist. Erst mit dem Central Protec-
tion Manager erffnet sich dem Administrator
die Mglichkeit, ARCserve D2D parallel auf meh-
reren Servern zu installieren, Backup-Policies
einzurichten und zuzuweisen, die Sicherungs-
lufe zu berwachen, einen Restore auszulsen
und Programm-Updates einzuspielen.
Im Zusammenspiel mit CA ARCserve
Backup wiederum lsst sich mit ARCserve D2D
eine Disk to Disk to Tape-Strategie umsetzen:
Der Administrator kann lnger zurckliegende
Sicherungen von CA ARCserve D2D, die nur
noch selten oder berhaupt nicht mehr ange-
fordert werden, in den blichen Sicherungs-
prozess aufnehmen und auf Tape auslagern.
Wenn in einer Auenstelle mehrere Ser-
ver gesichert werden mssen, ist es allerdings
oft sinnvoller, anstatt ARCserve D2D das umfas-
sendere ARCserve Replication einzusetzen. Es
basiert auf dem gleichen Funktionsprinzip wie
D2D, legt also in regelmigen Abstnden Snap-
shots des Systems an und repliziert sie auf einen
Remote-Server. Neben Windows- untersttzt es
jedoch auch Linux- und Unix-Betriebssysteme
und natrlich ebenfalls VMware, Hyper-V und
Citrix Xen fr die Virtualisierung. Der Adminis-
trator kann auswhlen zwischen einer kon-
tinuierlichen, einer geplanten und Ad-hoc-
Replikation, etwa um vor der Installation eines
Updates noch einmal den alten Systemzustand
einzufangen.
Fazit
Die Komponenten von CA ARCserve sind
so aufeinander abgestimmt, dass IT-Abteilungen
mit ihnen nahezu jede Herausforderung in Sa-
chen Datensicherung meistern knnen. Sie
qualizieren sich damit auch fr uerst he-
terogene IT-Strukturen in mittelstndischen
und Grounternehmen und lassen sich dort
problemlos an die unterschiedlichen Level der
Sicherheitsanforderungen anpassen.
Weitere Informationen: TIM AG Tel. 0611 2709-0 www.tim.de xx yy
Die I
2
-Technologie erstellt unbegrenzte, inkrementelle Backups auf Basis von
Windows VSS. Einzelne Widerherstellungspunkte werden automatisch zu-
sammengefasst, wodurch vollstndige Backups nicht mehr notwendig sind.
Die Vorteile inkrementeller Sicherungen bleiben erhalten.
xx yy xx yy 6 7
1 2 3 4 5 6 7 n
2 3 6
1 2 4 5
1 5
Sicherungsziel
(Lokaler Datentrger / Externer Datentrger / Netzwerkfreigabe)
Jedes Volume wird in Blcke
unterteilt und gesichert.
Jeder Block wird
daraufhin ber-
wacht, und nur
Blcke, die sich
verndern, wer-
den inkrementell
gesichert.
Sicherung von untergeordnetem
Element 1
(inkrementell)
Element 2
(inkrementell)
Element 3
(inkrementell)
(15 Minuten)
(15 Minuten)
(15 Minuten)
C:\
D:\
E:\
bergeordnete Sicherung (vollstndig)
1 2 3 4 5 6 7 n
2 3 6
1 2 4 5
1 5
Sicherung bergeordneter Elemente (vollstndig)
Zusammengefhrt
in bergeordnetes
Element
1 4 5 7 n 3 6
1 2 4 5
2
5 1
5 6
2
Wenn das Limit auf 3 zu
speichernde inkrementelle
Sicherungen festgelegt ist
1 3 4 7 6 5 2 Zuletzt gesicherte Blcke
Vergleich zur berprfung Jeder Block mit der Quelle
Block-Sicherungs-Image aktualisieren (falls erforderlich)
Quelle
C:\
7 6 5 1 2 4 3
Element
3
Element
2
Von
berge-
ordnetem
Element
Durch die Wiederherstellung werden alle Sicherungsblcke
unter Verwendung der neuesten Version wiederhergestellt.
Von untergeordnetem
Element
1
Element
2
Element
3
Element
1
Sicherung von untergeordnetem
Element 1
(inkrementell)
Element 2
(inkrementell)
Element 3
(inkrementell)
Sicherung von untergeordnetem
Element 2
(inkrementell)
Element 3
(inkrementell)
Element 4
(inkrementell)
Neue Sicherung bergeordneter Elemente
(berg. Element + unterg. Element 1)
Nchstes zusammen-
zufhrendes unterge-
ordnetes Element
Big Data ist derzeit das am intensivsten
diskutierte Thema der IT-Branche. Man versteht
darunter Datenmengen, die so gro sind, dass
sie mit Standard-Datenbanken nicht mehr oder
nur unzureichend verarbeitet werden knnen.
Die Schwierigkeiten treten auf allen Ebenen auf,
beim Erfassen der Daten ebenso wie bei ihrer
Speicherung, bei der Suche, bei der gemein-
samen Arbeit an den Daten, bei der Analyse
und der Visualisierung. Und ein Ende ist nicht in
Sicht, das Datenvolumen bei Unternehmen und
staatlichen Organisationen wchst weiterhin
mit exponentieller Geschwindigkeit.
Ein besonders heies Thema ist Big Data
im Storage-Umfeld. Viele Systeme stoen bei
Datenmengen von mehreren Petabyte und mehr
an ihre Kapazittsgrenzen. Beim Erweitern mi-
schen die Unternehmen dann oftmals Maschinen
mehrerer Hersteller, mit unterschiedlichen Be-
triebssystemen und verschiedenen technischen
Anstzen miteinander. Das Ergebnis ist eine he-
terogene Storage-Infrastruktur, die zunehmend
schwieriger zu berschauen und zu verwalten ist.
Das wiederum fhrt dazu, dass die gespeicher-
ten Daten aus dem Blickfeld der Benutzer gera-
ten. Die enthaltenen Informationen, die fr den
Geschftserfolg des Unternehmens essenziell
sein knnen, werden nicht mehr genutzt.
Wichtigster Faktor ist das Betriebssystem
Isilon begegnet diesen Herausforde-
rungen mit Systemen, die dateibasierte Anwen-
dungen in einem einzigen, riesigen Speicherpool
konsolidieren und zustzlich das blockorien-
tierte iSCSI-Protokoll untersttzen. Die Firma
hat eine Scale-out-Speicherarchitektur entwi-
ckelt, mit der sich 144 Knoten verbinden lassen.
Im Mai 2011 gab die Firma auf der EMC World
bekannt, dass sie die Grenze fr die Kapazitt
eines Volumes mit einem einzigen Dateisystem
auf mehr als 15 Petabyte anheben konnte.
Verantwortlich dafr ist in erster Linie das
von Isilon entwickelte Betriebssystem OneFS,
das mittlerweile in der Version 6.5 vorliegt. Es
verbindet mehrere Nodes in einem Cluster, die
entweder ber InniBand oder ber Standard-
Gigabit-Verbindungen miteinander kommuni-
zieren. Der Zugriff auf die unter OneFS gespei-
cherten Daten ist von Clients mit Windows,
Unix/Linux oder auch von Computern mit Apples
Mac OS X aus mglich.
Die Architektur der Isilon-Systeme ist auf
eine hohe, vierfache Ausfallsicherung ausge-
legt: Bis zu vier Festplatten oder vier komplette
Knoten knnen gleichzeitig ausfallen, ohne dass
dadurch Daten verloren gehen. ber die in OneFS
integrierten Routinen lsst sich in einem sol-
chen Fall ein Terabyte Daten in krzester Zeit
wiederherstellen.
Isilon ist auf Scale-out-NAS-Systeme
spezialisiert. Scale-out heit, dass sich die Per-
formance und Kapazitt der Cluster einfach
durch Hinzufgen weiterer Nodes erhhen
lassen. Das kann im laufenden Betrieb gesche-
hen, die neu hinzugekommenen Systeme sind
normalerweise innerhalb von etwa einer Minute
konguriert und arbeitsbereit. Die Isilon-Syste-
me untersttzen die NAS-Protokolle NFS und
CIFS sowie iSCSI. Der Aufbau und die Kongu-
ration sind einfach, kostspielige professionelle
Schulungen fr die Administration sind in den
meisten Fllen nicht erforderlich.
Der groe Vorteil beim Einsatz von Isilon
ist, dass das Storage-Management erheblich
vereinfacht wird. Anstatt heterogener, parallel
arbeitender Systeme gibt es nur noch eine
gemeinsame Plattform. blicherweise gengt
EMC Isilon
Storage-Systeme gegen die
Informationsfut
Die Systeme von EMC Isilon sind speziell fr die Analyse und die Verarbeitung von sehr groen
Daten mengen konzipiert. Gleichzeitig lassen sie sich sehr einfach skalieren.
Isilon Hardware-Plattformen bauen auf der innovativen Scale-out-Architektur auf, die fr einfache Handhabung, erstklassige Performance und Zuverlssigkeit ausgelegt
ist. Die Plattform umfasst drei exible Produktreihen, die auf bestimmte Geschftsanforderungen zugeschnitten sind. Die S-Serie als primrer Speicher mit extrem hoher
Performance, die X-Serie als exibelstes Angebot mit perfekter Ausgewogenheit von Speicher & Performance und die NL-Serie zur Bereitstellung kosteneffektiver, hoch
skalierbarer Disk-2-Disk und Archivspeicher.
auch bei groen Clustern mit mehreren Petabyte
Kapazitt ein einziger Mitarbeiter, um die Syste-
me zu verwalten, vor allem, da sie sehr einfach
erweiterbar sind. Die Total Costs of Ownership
(TCO) gehen deutlich zurck.
Bei einer Studie von Forrester Consulting
stellte sich zudem heraus, dass der durchschnitt-
liche Auslastungsgrad bei Isilon-Systemen mit
82 Prozent hher ist als bei den Systemen tra-
ditioneller Hersteller, die auf 60 Prozent kamen.
Das reduziert die Anschaffungskosten fr Sto-
rage und Ports und sorgt zudem dafr, dass we-
niger Energie verbraucht wird.
Im Kontext der Isilon-Technologie darf
schlielich nicht der Hinweis fehlen, dass die
Systeme Hadoop untersttzen, ein Software-
Framework, das die Analyse extrem groer
Datenmengen auf Computer-Clustern erlaubt.
Damit kommt dann auch Greenplum HD ins
Spiel, eine Datenbank, die speziell fr den Um-
gang mit Big Data entwickelt wurde und es er-
mglicht, in groen Volumen unstrukturierter
Daten Trends und Entwicklungen zu erkennen.
Genau wie Isilon gehrt Greenplum seit 2010
zu EMC.
Abgrenzung zur EMC VNX
Erst im vergangenen Jahr hat EMC die
VNX-Serie vorgestellt, den Nachfolger fr die
Celerra- und CLARiiON-Reihen. Bei voller Aus-
baustufe vereinen diese Systeme ebenfalls eine
hohe Performance mit groer Kapazitt und
sind dennoch dank der einheitlichen Manage-
ment-Oberche Unisphere einfach zu admi-
nistrieren. Was unterscheidet sie also von den
Isilon-Systemen, fr welche Anwendungen und
Kunden eignen sich Isilon und VNX?
Den wichtigsten Unterschied macht
natr lich das Dateisystem. Mit dem OneFS von
Isilon lassen sich unter einem einzigen Datei-
system und Volume ber 15 Petabyte Speicher-
kapazitt verwalten, bei einer VNX hingegen
maximal 16 Terabyte. Sie ist zudem in der
Unied-Storage-Welt zuhause, untersttzt also
sowohl File- wie auch blockorientierte Protokolle,
whrend es sich bei den Isilon-Systemen um
typische, datei orientierte NAS-Systeme handelt,
welche die Protokolle NFS, CIFS und HTTP unter-
sttzen. Und: Isilon setzt auf eine Scale-out-
Architektur, eine horizontale Skalierung, bei der
die Nodes zu Clustern verbunden werden. Durch
Hinzufgen weiterer Maschinen lassen sich dann
Performance und Kapazitt des Gesamtsystems
sehr einfach steigern. Die VNX-Serie hingegen
ist ein Scale-up-System, bei dem Performance-
und Kapazittssteigerungen durch den Ausbau
der vorhandenen Hardware erreicht werden.
Fr welche Kundenanforderungen sind
die Systeme geeignet? Isilon ist immer dann
die richtige Wahl, wenn es um die Arbeit mit
sehr groen Datenmengen geht. Die Systeme
von Isilon zeigen ihre Strken vor allem dann,
wenn eine hohe Bandbreite gefragt ist, um
groe Datenvolumen schnell verarbeiten zu
knnen, wenn es also, ganz nchtern gespro-
chen, um mglichst viele Gigabytes pro Sekun-
de geht. Das prdestiniert sie beispielsweise
fr den Einsatz beim Video-Streaming und bei
der Video produktion oder auch beim digitalen
Rundfunk und Fern sehen. Die VNX-Systeme
hingegen sind fr die
bliche Datei-, Block-
und Objekt speicherung
konzipiert. Sie knnen
immer dann glnzen,
wenn es darum geht,
geschftskritische Da-
ten zu verarbeiten oder
zu sichern, wenn also
ein mglichst hoher Da-
tendurchsatz (in Input /
Output Operations per
Second, IOPS) bentigt
wird. Und: Sie eignen
sich ausgezeichnet fr
die Bereitstellung virtu-
alisierter Applikationen.
Ein Cluster aus Isilon-
Maschinen ist dagegen
dort am richtigen Platz,
wo es um die Verar-
beitung groer Mengen an unstrukturierten
Daten geht. Das knnen neben Texten auch
Prsentationen sein, Videos, Audiodaten, Fotos
oder auch Konstruktionszeichnungen. Auch die
riesigen Berge von automatisch generierten
Daten, wie sie beispielsweise bei Telekommu-
nikationsrmen, meteorologischen Diensten
oder Luftfahrt-Gesellschaften anfallen, sind bei
Isilon gut aufgehoben. Die Isilon-Systeme kn-
nen solche Daten nicht nur in groen Mengen
aufnehmen, sondern bilden auch die geeignete
Plattform fr Anwendungen zur Analyse und
Weiterverarbeitung.
Im Einzelnen richten sich die VNX-
Maschinen an Kunden in mittelstndischen und
Grounternehmen sowie Einrichtungen der
ffentlichen Hand. Die Systeme sind ausgelegt
fr klassische IT-Workows wie Datenbanken,
beispielsweise von Oracle oder den Microsoft
SQL Server, ERP- und CRM-Systeme wie SAP,
jede Art von virtualisierten Applikationen, Kom-
munikations-Anwendungen wie Microsoft Ex-
change, und knnen auch als Basis fr die Da-
teiablage der Mitarbeiter eines Unternehmens
und frs Filesharing dienen.
Die typischen Anwendungsszenarien fr
Isilon-Systeme nden sich dagegen beispiels-
weise bei Grounternehmen aus der Medien-
und Unterhaltungsindustrie, die fr ihren Pro-
duktionsprozess vom Editing ber die Qualitts-
kontrolle im Playout-Center bis hin zur Archivie-
rung leistungsfhige Storage-Lsungen suchen,
deren Performance und Kapazitt ber das
normale Ma hinausgehen. Auch Unternehmen
aus der Internet-Branche, die umfangreiche
Buchungssysteme oder Webshops betreiben,
Plattformen fr Multimedia-Daten bereitstellen
oder als Service Provider ttig sind, gehren zur
Zielgruppe von Isilon. Des Weiteren umfasst
diese Gruppe Organisationen und Grounter-
nehmen aus den Bereichen Maschinenbau, Bio-
wissenschaften sowie l- und Gasfrderung
und -verarbeitung. Und auch in der Forschung
bei Hochschulen, staatlichen wissenschaftlichen
Einrichtungen und privaten Unternehmen sind
Isilon-Maschinen die passende Lsung fr die
IT-Abteilungen.
Fazit
Isilon ist Big Data. Die Systeme von
EMC Isilon stehen wie keine zweite Storage-
Produktreihe fr die Verarbeitung von groen,
unstrukturierten Datenmengen. Dank der Mg-
lichkeit zum Einrichten extrem groer Volumes
von mehr als 15 Petabyte, die eine hohe Aus-
lastung frdern, und der einfachen Administra-
tion sind die Maschinen auch in Unternehmen
und Organisationen einsetzbar, die nicht ber
IT-Abteilungen mit Hunderten Beschftigten
verfgen.
Weitere Informationen: TIM AG Tel. 0611 2709-0 www.tim.de 8 9
Die Isilon X-Serie skaliert von einem einzigen Datei-
system mit wenigen Terabyte auf mehr als 15 Peta-
byte und einen Durchsatz von mehr als 100 GB/s.
Die Isilon-Architektur bietet durch einen bis N+4 abgestuft einstellbaren Parity-
Schutz eine hohe Ausfallsicherheit.
Die neuen Dell

PowerEdge

Server: Leistungsstrker, innovativer


und schneller war noch kein Dell

Server!
Ab sofort knnen Ihre Kunden schneller besser informierte Entscheidungen trefen
denn Erfolg braucht Innovation.
Geben Sie Ihren Kunden jetzt die Performance und die Tools an die Hand, die sie brauchen,
um ihr Unternehmen voranzubringen: mit den neuesten Dell PowerEdge Servern
und Intel

Xeon

Prozessoren, die bis zu 80 % leistungsfhiger sind


als Prozessoren der Vorgngergenerationen.* Ob schnellerer
Datenzugrif, zuverlssigere geschftskritische
Anwendungen, einfachere Skalierbarkeit, weniger
Ausfallzeiten, geringere Kosten oder mehr virtuelle
Maschinen die neuen Dell Server bieten all das und
noch mehr fr hochefziente Virtualisierung.
Fundierte Entscheidungen
brauchen schnelle
Datenanalyse.
Die neuen Dell

PowerEdge

Server der zwlften Generation


* Der Leistungsvergleich basiert auf dem geometrischen Mittel aus den SPECintratebase2006, SPECfp*_rate_base2006, STREAM*_MP Triad und LINPACK* Benchmark-Tests. Der geometrische Ausgangsmittelwert von 166,75 wurde auf Grundlage
der besten auf www.spec.org verfentlichten SPECrate* Ergebnisse sowie der intern von Intel geschtzten Ergebnisse in den STREAM*_MP Triad und LINPACK Benchmark-Tests fr eine Plattform mit Intel

Xeon

X5690 Prozessor der Vorgn-


gergeneration mit zwei Sockeln berechnet, Stand 5. Dezember 2011. Der neue geometrische Mittelwert von 306,74 basiert auf internen Intel Schtzungen fr die Intel

Rose City Plattform mit zwei Intel

Xeon

E5-2690 Prozessoren, Turbo Boost,


aktiviertem EIST, Hyper-Threading-Technik, 128 GB RAM, Red Hat* Enterprise Linux Server 6.1 Beta fr x86_6 und Intel

Compiler 12.1, bei deaktiviertem THP fr SPECfp_rate_base_2006 und aktiviertem THP fr SPECint*_rate_base2006. Intel, das
Intel Logo, Xeon und Xeon Inside sind Marken oder eingetragene Marken der Intel Corporation in den USA und/oder anderen Lndern.
Seit Jahren schon beklagen Administra-
toren die tendenziell sinkenden IT-Budgets in
Unternehmen und staatlichen Organisationen.
Eine besondere Herausforderung ergibt sich
fr sie dabei, da die Datenmengen, mit denen
sie es in ihren Rechenzentren zu tun haben, in
den vergangenen Jahren exponentiell angestie-
gen sind. Vor allem der Pool an unstrukturierten
Daten nimmt ein immer greres Volumen an.
Hinzu kommt die wachsende Komplexitt der
IT-Landschaft: In den Rechenzentren werden
immer mehr Server und Applikationen virtuali-
siert, gleichzeitig wchst durch den Trend zum
Bring your own Device und den zunehmenden
Einsatz von Mobilgerten die Vielfalt der einge-
setzten Hardware.
Die IT-Abteilungen stehen dabei vor dem
Problem, dass die Zeitfenster, die sie fr ihre
Backups kalkuliert haben, nicht mehr ausrei-
chen. Folge: Die Service Level Agreements (SLAs)
knnen nicht mehr eingehalten werden. Gleich-
zeitig stehen die IT-Verantwortlichen unter dem
Druck, die Disaster-Recovery-Prozesse zu ver-
einfachen und zu beschleunigen, um schnellere
Restores realisieren zu knnen.
Um diese Aufgaben zu lsen, bedarf es
neuer Anstze beim Backup. Symantec stellt mit
NetBackup 7.5 eine Lsung vor, die Administra-
toren erweiterte Mglichkeiten bei der Bewlti-
gung der Datenut erffnet.
Accelerator und Replication Director
Die interessanteste Funktion zur Reduk-
tion des Zeitaufwands fr die Backups ist der
neue NetBackup Accelerator. Nach einem ersten
Full Backup fhrt er nur noch inkrementelle
Sicherungen durch, bercksichtigt also lediglich
neu hinzugekommene oder vernderte Daten-
blcke. Das hat blicherweise den Nachteil, dass
die inkrementellen Backups bei einem Restore
in einem zeitraubenden Vorgang erst wieder zu
einer kompletten Sicherung zusammengefgt
werden mssen. NetBackup Accelerator umgeht
das, indem er nach jedem Sicherungslauf im
Hintergrund ein sogenanntes Optimized Synthe-
tic Full Backup erzeugt. Dabei generiert die Soft-
ware keine neuen Images, sondern legt ledig lich
die Datenbankeintrge fr ein Vollbackup an.
Trotzdem lsst sich auf diese Weise jederzeit ein
schneller Restore-Vorgang durchfhren. Da das
Programm die nderungen anhand des NTFS
Change Journals von Windows oder, unter Linux
und Unix, anhand einer Logdatei erkennt, entfllt
zudem der aufwendige Scan des Dateisystems.
Um die Dauer des Backups noch weiter
zu verkrzen, setzt Accelerator Deduplizierung
ein. Das bedeutet in diesem Fall, dass lediglich
die Daten von den Clients gesichert werden, die
auf dem Host noch nicht vorhanden sind. Durch
die Deduplizierung und das zuvor beschriebene
Verfahren der inkrementellen Sicherungen kann
NetBackup Accelerator den Backup-Vorgang um
bis zum Hundertfachen beschleunigen.
Die zweite wichtige Neuerung von Net-
Backup 7.5 ist der Replication Director, der sich
speziell an NetApp-Kunden richtet. Sie knnen
damit die Snapshots aus NetBackup heraus aus-
lsen, katalogisieren und wiederherstellen. Des
Weiteren ist es mglich, die Snapshots in ein
zweites Rechenzentrum zu replizieren, entweder
ber NetApp SnapVault oder ber SnapMirror.
Auerdem lassen sie sich auf Bandlaufwerke
oder externe Festplatten schreiben.
Ebenfalls neu ist NetBackup Search, eine
Funktion, die in bestimmten Fllen die Verwal-
tung gesicherter Daten deutlich vereinfacht.
Wenn ein Administrator die mit einem bestimm-
ten Mitarbeiter verbundenen Daten wegen einer
gesetzlichen Gewhrleistungsfrist ber den b-
lichen Sicherungszeitraum hinaus aufbewahren
muss, dann braucht er nicht mehr die komplette
Sicherung zu archivieren, sondern kann die zu
dem Projekt gehrenden Daten entsprechend
kennzeichnen. Whrend in der Folge alle ande-
ren Daten freigegeben und von NetBackup ge-
lscht werden, bleiben die Projektdaten erhalten.
Auf diese Weise spart der Anwender Bnder und
Storage.
Neu ist schlielich auch das OpsCenter
Operational Restore. Damit lsst sich ber eine
webbasierte Oberche die Suche nach Dateien
auf bestimmte Clients einschrnken. So luft die
Suche natrlich erheblich schneller, als wenn
smtliche Clients einer Organisation durchforstet
werden mssen.
Ausblick auf Version 7.6
Fr das zweite Halbjahr 2012 hat
Symantec NetBackup 7.6 angekndigt. Diese
Version wird sich voraussichtlich in erster Linie
um Komplettierungen der mit 7.5 vorgestellten
Neuerungen kmmern. Das lsst sich gut am
Beispiel des NetBackup Replication Director dar-
stellen: Whrend diese Funktion in Version 7.5
lediglich fr NetApp-Anwender und NAS-Proto-
kolle verfgbar ist, wird die Untersttzung mit
Version 7.6 auf die SAN-Protokolle Fibre Chan-
nel und iSCSI erweitert. Hinzukommen sollen
auerdem eine Untersttzung fr VMware und
eine direkte Zusammenarbeit mit Applikationen
wie Oracle, Exchange oder Microsoft SQL Server,
um so applikationskonsistent Daten ber einen
Snapshot zu sichern.
hnliche Vernderungen wird es beim
NetBackup Accelerator geben. Derzeit ist er fr
Dateisysteme verfgbar, in Zukunft soll auch
VMware untersttzt werden. Wie der Funktions-
umfang von Version 7.6 allerdings genau aus-
sehen wird, ist momentan noch nicht bekannt.
Symantec
NetBackup Accelerator reduziert die I/O-Kosten ohne die CPU-Performance zu beeintrchtigen.
Weitere Informationen: TIM AG Tel. 0611 2709-0 www.tim.de 10 11
Mit schnelleren Sicherungen
gegen die Datenfut
Unter dem Motto Better Backup for All wurde Symantec NetBackup 7.5 um Funktionen fr verkrzte und
vereinfachte Sicherungen erweitert.
Die neuen Dell

PowerEdge

Server: Leistungsstrker, innovativer


und schneller war noch kein Dell

Server!
Ab sofort knnen Ihre Kunden schneller besser informierte Entscheidungen trefen
denn Erfolg braucht Innovation.
Geben Sie Ihren Kunden jetzt die Performance und die Tools an die Hand, die sie brauchen,
um ihr Unternehmen voranzubringen: mit den neuesten Dell PowerEdge Servern
und Intel

Xeon

Prozessoren, die bis zu 80 % leistungsfhiger sind


als Prozessoren der Vorgngergenerationen.* Ob schnellerer
Datenzugrif, zuverlssigere geschftskritische
Anwendungen, einfachere Skalierbarkeit, weniger
Ausfallzeiten, geringere Kosten oder mehr virtuelle
Maschinen die neuen Dell Server bieten all das und
noch mehr fr hochefziente Virtualisierung.
Fundierte Entscheidungen
brauchen schnelle
Datenanalyse.
Die neuen Dell

PowerEdge

Server der zwlften Generation


* Der Leistungsvergleich basiert auf dem geometrischen Mittel aus den SPECintratebase2006, SPECfp*_rate_base2006, STREAM*_MP Triad und LINPACK* Benchmark-Tests. Der geometrische Ausgangsmittelwert von 166,75 wurde auf Grundlage
der besten auf www.spec.org verfentlichten SPECrate* Ergebnisse sowie der intern von Intel geschtzten Ergebnisse in den STREAM*_MP Triad und LINPACK Benchmark-Tests fr eine Plattform mit Intel

Xeon

X5690 Prozessor der Vorgn-


gergeneration mit zwei Sockeln berechnet, Stand 5. Dezember 2011. Der neue geometrische Mittelwert von 306,74 basiert auf internen Intel Schtzungen fr die Intel

Rose City Plattform mit zwei Intel

Xeon

E5-2690 Prozessoren, Turbo Boost,


aktiviertem EIST, Hyper-Threading-Technik, 128 GB RAM, Red Hat* Enterprise Linux Server 6.1 Beta fr x86_6 und Intel

Compiler 12.1, bei deaktiviertem THP fr SPECfp_rate_base_2006 und aktiviertem THP fr SPECint*_rate_base2006. Intel, das
Intel Logo, Xeon und Xeon Inside sind Marken oder eingetragene Marken der Intel Corporation in den USA und/oder anderen Lndern.
Auf die Erledigung von Datenbank-
Abfragen warten zu mssen, ist im Unter-
nehmens umfeld keine Option. Bestellungen
mssen sofort verbucht werden, Umsatzzahlen
immer aktuell bereitstehen. Professionelle
Datenbank-Anwendungen beispielsweise von
Oracle oder SAP oder auch Web- und Finanz-
anwendungen erfordern daher Lsungen, die
eine hchstmgliche Performance bieten.
Gleichzeitig mssen natrlich immer auch die
Kosten im Auge behalten werden.
EMC hat daher bereits vor einigen Jah-
ren die F.A.S.T.-Technologie entwickelt, das Fully
Automated Storage Tiering. Tiering lsst sich
bersetzen mit Abstufen oder Staffelung
und bedeutet, dass die vorhandenen Speicher-
medien gem ihrer Performance und verschie-
denen Preisklassen unterschiedlichen Stufen
zugeordnet werden. Auf Tier 1 etwa werden
schnelle SAS- oder Fibre-Channel-Festplatten
eingesetzt, die jedoch einen verhltnismig
hohen Preis pro Gigabyte aufweisen. Auf Tier 2
sind es die Highend-SATA-Platten mit 15000
Umdrehungen pro Minute, die ebenfalls noch
sehr geringe Zugriffszeiten versprechen.
Tier 3 versammelt dann SATA-Platten mit 7200
oder auch 5400 Umdrehungen, die sich durch
einen besonders gnstigen Preis auszeichnen.
Vor einigen Jahren wurde zustzlich Tier 0
deniert, das mit den derzeit schnellsten, aber
auch teuersten Festplatten arbeitet, den SSDs,
beziehungsweise den von EMC entwickelten
EFDs (Enterprise Flash Drives). EFDs verwenden
SSD-Technik, wurden jedoch von EMC noch ein-
mal in puncto Datensicherheit, Langlebigkeit
und Performance optimiert.
EMC F.A.S.T. sorgt nun dafr, dass die zu
speichernden Daten automatisch auf die ver-
schiedenen Tiers verteilt werden. Besonders
hug angeforderte Daten, die schnell zur
Verfgung stehen mssen, landen auf Tier 0
oder Tier 1. Etwas weniger oft angefragte Daten
verschiebt F.A.S.T. auf Tier 2, die am wenigsten
bentigten Daten auf Tier 3. Auf diese Weise
lassen sich die Kosten pro I/O-Vorgang optimie-
ren und insgesamt drastisch senken.
SAN-Verbindung als Bremse
Doch manche Anwendungen erfordern
eine I/O-Leistung, die auch mit den schnellsten
derzeit verfgbaren SSDs nicht befriedigt wer-
den kann. Denn gebremst wird der Datenuss
nicht durch das Speichermedium, sondern durch
den bertragungsweg zwischen dem Host und
dem Speicher-Subsystem. blicherweise luft
der Datenverkehr ber ein SAN, das entweder
auf dem Fibre-Channel- oder einem IP-Protokoll
basiert. Und ganz gleich, wie breitbandig diese
Verbindungen ausgebaut sind, es bleibt immer
eine Latenzzeit. Die Laufzeit ber das Kabel lsst
sich nicht eliminieren.
Es gibt zwei Mglichkeiten, das Problem
anzugehen: Entweder man bringt den Speicher
nher an die CPU des Host-Rechners oder die
CPU nher an den Speicher. Mit dem im ver-
gangenen Jahr auf der EMC World vorgestellten
VFCache hat sich EMC fr die erste Mglichkeit
entschieden.
EMC VFCache fr das Host-System
VFCache besteht aus einer PCIe-Karte
und der zugehrigen Treiber-Software. Das Pro-
dukt wird auf dem Host-System installiert und
ist kompatibel zu Microsoft Windows Server
2008 und Linux, auerdem arbeitet es mit vir-
tuellen Umgebungen unter VMware vSphere 4.1
und 5.0 zusammen.
Die Karte ist mit 300 Gigabyte Flash-
Speicher ausgerstet, der als Cache fr Lese-
operationen auf den Laufwerken beziehungs weise
EMC
EMCs neue Cache-Technologie
bringt Performance-Boost
Mit VFCache stellt der Storage-Hersteller ein Produkt vor, das in Zusammenarbeit mit EMC F.A.S.T. die
Reaktions zeiten von Webanwendungen und Datenbanken drastisch verkrzen kann.
EMC bietet mit den Technologien F.A.S.T und VFCache eine End-to-End-Tiering-Lsung zur Optimierung von
Kapazitt und Leistung vom Server bis zum Speicher.
Mit VFCache wird die Anwendungs-Performance einer traditionellen Storage-Architektur drastisch verbessert.
Dabei werden Lese-Anforderungen durch den VFCache bearbeitet, Schreib-Operationen gehen direkt zum
Speichersystem, um einen Datenverlust zu vermeiden.
LUNs des Speicher-Subsystems kon guriert
wird. VFCache sammelt in seinen schnellen
Flash-Modulen die am hugsten angefor-
derten Daten und stellt sie auf dem Server bei
entsprechenden I/O-Anfragen zur Verfgung.
Die Daten werden also vom Storage-System
ber das SAN in den VFCache des Hosts ber-
tragen und dort vorgehalten. Da in der Folge
die am hugsten bentigten Daten bereits
auf dem Server vor liegen und dort abgerufen
werden knnen, mithin die bertragung bers
Netzwerk entfllt, lassen sich erheblich mehr
I/O-Vorgnge durchfhren.
Der Cache selbst funk-
tioniert so: Sobald eine I/O-
Leseanforderung kommt,
wird sie von der VFCache-
Software an die PCIe-Karte
weiter gereicht. Falls die Daten
bereits im Cache vorliegen,
wird die Anforderung erfllt,
falls nicht, an die Festplatte
weitergeleitet. Dabei merkt
sich die Karte, welche Da-
tenblcke besonders oft an-
gefordert werden. Falls nun
ein Block huger als andere
von der Festplatte gelesen
werden muss, bernimmt sie
ihn in ihren Flash-Speicher
und bedient die nchste
Anfrage aus dem Cache.
Diese Arbeitsweise entspricht
weitgehend dem, wie auch
der integrierte Cache in einer
CPU oder der Cache-Speicher
im RAM organisiert ist. Die
Reaktionszeit wird dadurch
von Milli- auf Mikrosekunden
reduziert.
VFCache sorgt aber
auch noch in anderer Hin-
sicht fr eine Performance-
Stei gerung: Da die Karte mit einer hohen In-
telligenz ausgestattet ist, nimmt sie der CPU
des Servers einiges an Arbeit ab. Vorgnge wie
beispielsweise das Durchsuchen des Cache, die
normalerweise der Hauptprozessor erledigen
muss, werden auf die PCIe-Karte bertragen.
Die CPU wird also entlastet und hat mehr Kapa-
zitten fr andere Aufgaben. VFCache lsst sich
in dieser Hinsicht vergleichen mit dem Effekt ei-
ner TCP/IP Ofoad Engine auf einem Netzwerk-
Adapter.
Beschleunigung von Lesezugriffen
Die Karte beschleunigt zusammen mit
ihrer Software alle blockbasierten Protokolle.
Ob es sich bei den Festplatten um interne oder
externe Modelle handelt, spielt keine Rolle.
Es muss jedoch immer klar sein, dass sich
VFCache ausschlielich um Lesevorgnge km-
mert. Schreib operationen hingegen werden
durchgereicht ans Speicher-Subsystem. Das ge-
schieht aus Grnden der Datensicherheit: Wr-
de VFCache auch Schreibzugriffe cachen, knnte
es bei einem Server-Ausfall zu Datenverlusten
kommen, falls die Daten in den Flash-Modulen
nicht mehr auf die Platte geschrieben werden
knnten. Bei Datenbank-Anwendungen knnte
das dazu fhren, dass die gesamte Daten bank
korrumpiert und damit unbrauchbar wrde.
VFCache ist vor allem beim Einsatz von
solchen Anwendungen effektiv, die sehr viele
I/O-Vorgnge pro Sekunde oder eine sehr
niedrige Reaktionszeit erfordern. Dazu zhlen
beispiels weise umfangreiche Web-Anwen-
dungen wie Shops oder Buchungssysteme,
Datenbanken fr die Online-Transaktions -
ver arbeitung, das Customer Relationship Ma-
nage ment (CRM) und das Enterprise Resource
Planning (ERP) sowie E-Mail-Anwendungen.
Ihnen allen ist gemein, dass auf verhltnis -
mig wenige Daten sehr hug und oftmals
gleichzeitig zugegriffen wird.
Die neue Cache-Technologie ermglicht
I/O-Vorgnge in Grenordnungen, die im Ver-
gleich mit Systemen ohne VFCache astrono-
misch erscheinen. Whrend eine herkmmliche,
mechanische Festplatte pro Sekunde auf etwa
150 bis 180 I/O-Vorgnge pro Sekunde kommt
(IOPS, I/O Operations per Second), sind es bei
EFDs bereits 2000 bis 3000. Fr VFCache gibt
EMC Leseraten von bis zu 700000 IOPS an, in
der Praxis sind ber 100000 IOPS realistisch.
Aufgrund der hohen Performance-Unterschiede
hat EMC fr den VFCache eine neue Tier-Stufe
eingefhrt Tier -1.
Im klassischen TPC-C-Benchmark mit ei-
ner Oracle-Datenbank mit einem Volumen von
1,2 Terabyte und einer Schreib-/Leserate von 70
zu 30 lie sich nach Installation von VFCache die
Response-Zeit um 60 Prozent verbessern. Die
Transactions per Second waren dabei um den
Faktor drei erhht. Insgesamt kam es zu einer
Performance-Steigerung von 210 Prozent.
Transaktionskosten senken
Diese Daten bedeuten gleichzeitig auch,
dass sich mit VFCache in der Unternehmens-IT
sogar Kosten senken lassen: Denn bercksich-
tigt man die Kosten pro Transaktion, lassen sich
durch den Einsatz von VFCache bei transaktions-
intensiven Anwendungen die Kosten deutlich
nach unten drcken.
Als hostbasiertes System arbeitet VFCache
nicht nur mit Storage-Systemen von EMC zu-
sammen. Die Karte ist ganz allgemein fr die
Performance-Verbesserung von Anwendungen
konzipiert, ganz gleich, ob sie auf einem phy-
sischen Server laufen oder virtualisiert sind. Spei-
chersysteme von EMC, und darunter vor allem
die Unied-Storage-Systeme aus der VNX-Reihe,
protieren jedoch ganz besonders vom Einsatz
des Cache, da deren Mechanismen sich reibungs-
los in die des Storage-Systems einpassen.
Weitere Informationen: TIM AG Tel. 0611 2709-0 www.tim.de 12 13
VFCache bringt die Daten nher zur Anwendung, passt sich dabei automatisch verndernden Workloads an und ermglicht damit
einen jederzeit efzienten I/O-Pfad.
Symantec Backup Exec 2012 und NetBackup 7.5
enthalten erweiterte neue Funktionen fr virtuelle und
physische Umgebungen.
Beseitigen Sie die Komplexitt bei Backups mit
TIM und Symantec.
Hier informieren: www.tim.de
Sie mssen also nur eine Lsung erwerben, um Ihre
gesamte Umgebung zu sichern:
Eine einzige Lsung fr VMware-, Hyper-V- und physische Server
Wiederherstellung einzelner Dateien, Deduplizierung und
Richtlinienverwaltung
Neue V-Ray-Technologie fr optimalen Einblick in die gesamte
Umgebung
Automatische Sicherung neuer oder verschobener VMs
Condence in a connected world.
UNITE
PHYSICAL AND VIRTUAL
Was tun, wenn die Performance der vor-
handenen Storage-Systeme nicht mehr aus-
reicht? Wenn die Anforderungen der einge-
setzten Applikationen so gestiegen sind, dass
zustzliche Rechenleistung gefragt ist? Oder
wenn die Speicherkapazitt in absehbarer Zeit
erschpft sein wird?
Eine mgliche Lsung ist ein Upgrade auf
grere Systeme mit hherer Rechenleistung
und Kapazitt. Doch ein solches Scale-up, also
eine vertikale Skalierung, erfordert fast immer
eine Unterbrechung des laufenden Betriebs der
Applikationen und anschlieend eine Neukon-
guration. Solche Betriebsausflle sind teuer,
entsprechend ungern gesehen und bei manchen
kritischen Applikationen sogar nahezu ausge-
schlossen. Und auch bei einem Scale-out, also
einer horizontalen Skalierung durch Hinzufgen
zustzlicher Maschinen, ist eine Betriebsun-
terbrechung oftmals nicht zu vermeiden und
bringt zudem das Problem mit sich, dass die neu
hinzugekommenen Systeme auch den adminis-
trativen Aufwand erhhen.
Mit seinem Betriebssystem Data ONTAP
in der Version 8.1 prsentierte NetApp im ver-
gangenen Herbst eine Lsung, die nicht nur
ein Scale-out-Clustering im laufenden Betrieb
erlaubt, sondern auch uerst exibel ist, was
die Einbindung von Midrange- oder auch High-
end-Storage-Systemen anbelangt oder auch
den Einsatz unterschiedlicher Speichermedien.
Auch ein klassisches Tiering lsst sich auf diese
Weise realisieren. Zudem, und das unterscheidet
NetApp vom Wettbewerb, lsst sich der Cluster-
Mode von Data ONTAP 8.1 sowohl in der NAS-
wie auch in der SAN-Welt einsetzen.
NetApp fasst die Fhigkeiten von Data
ONTAP 8.1 unter den Stichworten Always-on,
bedarfsgerechte Flexibilitt und betriebliche
Efzienz zusammen. In den folgenden Abschnit-
ten soll es darum gehen, was das im Einzelnen
bedeutet und welche Vorteile sich dadurch fr
den Kunden ergeben.
Clustering fr NAS und SAN
Der Cluster-Mode ist eine neue Funk-
tion von Data ONTAP 8.1. Systeme mit diesem
Betriebssystem lassen sich nicht nur fr NAS-
Workloads einsetzen, also beispielsweise fr
Anwendungen im Medienbereich, bei denen
umfangreiche Datenmengen erfasst werden
mssen. Sie untersttzen auch typische SAN-
Workloads wie etwa Oracle und andere Da-
tenbank-Verwaltungen und beherrschen die
Protokolle Fibre Channel (FC), iSCSI und Fibre
Channel over Ethernet (FCoE). NetApp hat also
mit ONTAP 8.1 eine Plattform geschaffen, die
sich fr Workloads aller Art anbietet und damit
die Tradition der Unied-Storage-Systeme der
Firma weiterfhrt und ausbaut.
Doch der Cluster-Mode ist beileibe nicht
die einzige Neuerung von ONTAP 8.1. Zum
Liefer umfang des Betriebssystems gehren nun
auch Funktionen wie ein integriertes Antiviren-
Programm, asynchrone Spiegelung, die Unter-
sttzung von NFS in den Versionen 4 und 4.1
(inklusive pNFS), die Integration der VMware-
Schnittstelle VAAI (vStorage API for Array In-
tegration) in NFS, das Microsoft-NAS-Protokoll
SMB in Version 2.1 sowie Verbesserungen bei
der Verwaltung und der Support-Freundlichkeit.
Und auch die NetApp-Funktionen zur Storage-
Efzienz sind verfgbar. Dazu spter noch mehr.
Die entscheidende Verbesserung von
Data ONTAP 8.1 gegenber den Vorgnger-
Versionen sind jedoch die Mglichkeiten, die das
Betriebssystem bei der Skalierung einer Storage-
Umgebung erffnet. NetApp hat im Prinzip eine
zustzliche Virtualisierungsschicht eingezogen,
die die physischen Storage-Controller von den
Applikationen trennt. Die Anwendungen sehen
lediglich einen oder mehrere virtuelle Control-
ler, die von den physischen Maschinen vllig
unabhngig sind. Der Administrator kann einen
Global Namespace ber alle Storage-Systeme
hinweg einrichten, was die Verwaltung deutlich
vereinfacht und den Aufwand reduziert.
Always-on fr SAN und NAS
Im Cluster-Mode von ONTAP 8.1 ist es
mglich, eine Storage-Umgebung im laufenden
Betrieb und ohne dass es zu Einschrnkungen
bei der Funktionalitt kommt, zu skalieren und
an den aktuellen Bedarf des Betreibers anzupas-
sen. Die Daten lassen sich einfach auf andere
Controller verschieben und zwar, wie gesagt,
ohne dass Betriebsunterbrechungen erforder-
lich wren. Fr die Applikationen ndert sich
dabei nichts: Sie greifen nach wie vor auf den
gleichen virtuellen Controller zu.
Das bringt nicht nur beim Skalieren er-
hebliche Vorteile, sondern auch bei der Wartung
und beim Einsetzen von Upgrades. Wenn ein
Controller beispielsweise durch ein Modell mit
einer leistungsfhigeren CPU ausgetauscht wer-
den soll oder wenn es zu einem Defekt gekom-
men ist, kann der Administrator die Daten von
dem betroffenen Storage-Controller auf einen
anderen migrieren, den Controller austauschen
und die Daten anschlieend wieder zurckho-
len. Auch das im laufenden Betrieb.
NetApp
Mit der Scale-out-Architektur von Data ONTAP 8.1 entsteht aus Applikationssicht ein Global Namespace, der
sich ber alle physischen Maschinen erstreckt.
Weitere Informationen: TIM AG Tel. 0611 2709-0 www.tim.de 14 15
Cluster-Mode vereinfacht und
fexibilisiert Administration
Mit dem Cluster-Mode von Data ONTAP 8.1 verstrkt NetApp sein Engagement beim Scale-out-Storage und
bleibt dennoch seiner Unied-Storage-Philosophie treu.
Symantec Backup Exec 2012 und NetBackup 7.5
enthalten erweiterte neue Funktionen fr virtuelle und
physische Umgebungen.
Beseitigen Sie die Komplexitt bei Backups mit
TIM und Symantec.
Hier informieren: www.tim.de
Sie mssen also nur eine Lsung erwerben, um Ihre
gesamte Umgebung zu sichern:
Eine einzige Lsung fr VMware-, Hyper-V- und physische Server
Wiederherstellung einzelner Dateien, Deduplizierung und
Richtlinienverwaltung
Neue V-Ray-Technologie fr optimalen Einblick in die gesamte
Umgebung
Automatische Sicherung neuer oder verschobener VMs
Condence in a connected world.
UNITE
PHYSICAL AND VIRTUAL
Dank der Virtualisierung lassen sich die
Systeme auch besser ausnutzen. Wenn eine
Applikation beispielsweise so gewachsen ist,
dass die Ressourcen, also Rechenleistung und
Speicherkapazitt, auf ihrem Storage-Controller
knapp werden, ist es mglich, im Zuge eines
Re-Balancing einzelne Workloads auf andere,
weniger belastete Controller zu verschieben. Auf
diese Weise werden die vorhandenen Systeme
optimal genutzt und gleichmiger ausgelastet.
Die Always-on-Funktionalitt sorgt also
fr eine Hochverfgbarkeit der Storage-Con-
troller. Um darber hinaus die klassische Aus-
fallsicherheit zu bekommen, bei der smtliche
Daten immer aktuell auch auf einer zweiten Ma-
schine vorgehalten werden, lsst sich zustzlich
noch eine Spiegelung einrichten.
Mehr Flexibilitt durch Skalierung
Mit ONTAP 8.1 verfolgt NetApp einen
Scale-out-Ansatz: Bei Performance-Engpssen
werden einfach weitere Storage-Controller
hinzugefgt. Auf der anderen Seite knnen bei
der Auslagerung von Geschftsbereichen, wenn
also weniger Storage erforderlich ist, einzelne
Maschinen aus dem Verbund herausgenom-
men werden. Ein Unternehmen kann also klein
beginnen und beispielsweise mit zwei Storage-
Controllern ein SAN- oder eine NAS-Lsung
aufbauen. Wenn die Anforderungen dann im
Laufe der Jahre steigen, kann die IT-Abteilung
jederzeit exibel reagieren und einfach weitere
Systeme hinzufgen.
Theoretisch ist die Kapazitt und Per-
formance eines solchen Clusters unbegrenzt.
Denn jeder Storage-Controller, der hinzugefgt
wird, erhht die Leistung an IOPS (I/O Opera-
tions per Second) des Gesamtsystems, da alles
einem groen, virtuellen Storage-Controller
zugeschrieben wird. Das Gleiche gilt fr die Ka-
pazitt: Mit einem Cluster aus mehreren High-
end-Systemen der 6200er-Serie von NetApp,
von denen jedes mehrere Petabyte Storage-
Kapazitt verwalten kann, bekommt man einen
gigantischen virtuellen Storage-Controller. In
der Praxis sind die Cluster von ONTAP 8.1 in der
NAS-Welt momentan auf maximal 24 Nodes
beschrnkt. In einem SAN lassen sich derzeit bis
zu vier Nodes zusammenschalten, wobei dieser
Wert allerdings schon in naher Zukunft erhht
werden soll.
Efzient im Betrieb
Beim Clustering wird die Storage-Hard-
ware gewissermaen virtualisiert. Der Admi-
nistrator kann ber alle Nodes hinweg einen
virtuellen Server, einen V-Server, mit einem
einheitlichen Global Namespace einrichten,
ber den smtliche Volumes ansprechbar sind.
Parallel zur Zahl der Namespaces verringert
sich auch der administrative Aufwand fr ihre
Verwaltung, die Administration arbeitet erheb-
lich efzienter. Zwar wird man aus praktischen
Erwgungen heraus zumeist mehrere V-Server
einrichten. Doch sie alle sind Teil eines einzigen
Namespace.
Welche Hardware hinter einem V-Server
steckt, ist aus Applikationssicht weitgehend
irrelevant. Auerdem lassen sich problemlos
auch die Controller-Typen mischen. Eine Ma-
schine aus der FAS2000-Serie von NetApp lsst
sich kombinieren mit einer FAS3200 und/oder
einer FAS6200. ber die V-Serie von NetApp
kann die IT-Abteilung auerdem Third-Party-
Storage von anderen Anbietern in den Cluster
aufnehmen. Alle Controller lassen sich mit ein
und demselben Verwaltungstool administrie-
ren, dem NetApp System Manager 2.0. Auch
das bringt noch einmal eine Vereinfachung und
Efzienzsteigerung.
Eine solche heterogene Infrastruktur mit
Storage-Controllern aus dem Entry-, Midlevel-
und Highend-Bereich und mit Maschinen unter-
schiedlicher Hersteller bietet sich natrlich fr
ein Tiering an. Den Controllern mit Highspeed-
Storage, die also beispielsweise mit verhlt-
nismig kleinen, aber kostenintensiven SSDs
oder SAS-Platten bestckt sind, wrde man
dabei Daten zuweisen, auf die besonders hu-
g zugegriffen wird. Auf die Storage-Controller
mit den preiswerteren, weniger performanten
SATA-Disks mit der hheren Speicherkapazitt
hingegen kann der Administrator solche Daten
auslagern, die seltener bentigt werden oder
archiviert werden sollen.
Trotz eines Global Namespace und einer
virtuellen Server-Struktur sind ONTAP-8.1-
Clus ter mandantenfhig. Die V-Server-Einheiten
sind genauso sicher voneinander trennbar als
handele es sich um Controller, die physisch von-
einander separiert sind. ber eine rollenbasierte
Zugriffskontrolle ist dafr gesorgt, dass auch die
Administration jeweils auf die verschiedenen,
denierten Einheiten beschrnkt werden kann.
Die SAN- und NAS-Protokolle werden berall in
vollem Umfang untersttzt.
Wichtig ist die Mandantenfhigkeit
beispiels weise fr Service-Provider: Sie mssen
ihren Kunden die Gewhr bieten knnen, dass
ihre oftmals hochsensiblen Daten von niemand
anderem eingesehen werden knnen, auch wenn
sie auf einem gemeinsamen Storage-Controller
liegen. Aber auch innerhalb von Unternehmen
existieren Bereiche, wo es darum geht, dass
Daten lediglich bestimmten Benutzergruppen
zugnglich sind. Beispiele dafr sind etwa die
Lohnbuchhaltung oder die Personalverwaltung.
Storage-Efzienz im Cluster
Storage-Efzienz war in den vergangenen
Jahren eines der beherrschenden Themen bei
NetApp. Denn den rapide wachsenden Daten-
bestnden stehen in den meisten Unternehmen
stagnierende oder nur leicht erhhte IT-Budgets
gegenber. Die IT-Infrastruktur muss also ef-
zien ter werden, um die steigenden Anforderun-
gen erfllen zu knnen. NetApp bietet seinen
Kunden in diesem Zusammenhang folgende
Funktionen und Tools an:
Deduplizierung: Durch das Ersetzen mehrfach
vorhandener Datenblcke durch Pointer, die
auf ein Original verweisen, lassen sich Daten-
bestnde in der Praxis auf durchschnittlich
etwa ein Zehntel reduzieren.
RAID DP: Die von NetApp entwickelte RAID-
Technik arbeitet mit zwei Paritten, weshalb
auch bei einem Ausfall von zwei Festplatten
die enthaltenen Daten rekonstruierbar sind.
Da bei RAID DP zustzlich zu den Nutzdaten
lediglich die Paritten gespeichert werden, ist
das entstehende Datenvolumen um bis zu 46
Prozent geringer als bei einem RAID 1-System.
Thin Provisioning: Mit dieser Funktion lsst
sich der ungenutzte, freie Speicherplatz auf
einem System um 20 bis 33 Prozent redu-
zieren, indem der Storage den Applikationen
NetApp
In NetApps Unied Architecture wachsen virtualisierter Storage und Scale-Out-NAS zusammen.
exibel zugewiesen wird. Thin Provisioning ist
eine der wirksamsten Methoden zur Efzienz-
steigerung von Storage-Systemen.
Flash Cache: Die intelligente Cache-Technolo-
gie erhht den I/O-Durchsatz von SATA-Lauf-
werken um bis zu 75 Prozent. Oder, anders
ausgedrckt: Es sind 75 Prozent weniger Disks
erforderlich, um die gleichen Performance-
Werte zu erreichen.
Snapshots: Die Snapshot-Technologie von
NetApp speichert nach dem ersten Schnapp-
schuss des Gesamtsystems lediglich noch die
Datenblcke, die sich seit dem letzten Mal ver-
ndert haben. Auf diese Weise lsst sich das
Datenvolumen um etwa 80 Prozent reduzieren.
Thin Replication: NetApp SnapMirror Thin Re-
plication arbeitet mit einer inkrementellen Re-
plikation auf Blockebene und mit Snapshots
und kann dadurch Sicherungen erheblich
schneller und kostengnstiger durchfhren.
Virtual Copies: Das NetApp-Tool FlexClone
erzeugt eine Art beschreibbarer Snapshots,
die sich dadurch auszeichnen, dass sie bei un-
verndertem Datenbestand auch keinen Spei-
cherplatz bentigen. Erst wenn Originaldaten
hinzugefgt, bearbeitet oder gelscht wurden,
legt das Tool die vernderten Blcke ab.
Die genannten Funktionen setzen an un-
terschiedlichen Punkten an, um groe Datenbe-
stnde zu reduzieren, ihre Wirkungen ergnzen
sich. Sie alle tragen dazu bei, dass Storage-Syste-
me efzienter werden und grere Datenmengen
verarbeiten knnen.
Sie sind in ONTAP 8.1 ohne Ausnahme
auf den NetApp-Systemen der FAS- und V-Serie
verfgbar. Hinzu kommen die oben genannten
Protokolle sowie die Neuerungen wie etwa die
integrierte Antiviren-Software. Zudem bieten
die Systeme ein Remote Caching, mit dem die
Kunden an entfernten Standorten einen auf NFS
basierenden Zwischenspeicher einrichten knnen,
ber den sie schnelleren Zugriff auf die Daten
eines NAS-Systems bekommen.
NetApp ist derzeit der einzige Hersteller,
der die genannten Storage-Efzienz-Funktionali-
tten auf einem Scale-out-Clustering-System zur
Verfgung stellt. Sie wurden eins zu eins von Data
ONTAP 7 auf die aktuelle Version 8.1 bernom-
men. Einzig allein die synchrone Spiegelung und
SnapVault fr Disk-to-Disk-Backups wurden vom
ONTAP-7-Mode (noch) nicht bertragen.
Storage-Systeme live erleben
Technik lsst sich oft einfacher begrei-
fen, wenn man die Hardware und Software vor
sich hat und von einem Fachmann vorgefhrt
bekommt. Das gilt auch fr Storage-Systeme.
NetApp gibt daher mit seinen TechDemo-Events
allen Interessenten die Mglichkeit, NetApp-
Systeme einmal in der Praxis zu erleben und
direkt Fragen zu einzelnen Aspekten zu stellen.
Die TechDemos nden regelmig jede
Wo che in mehreren deutschen Stdten statt. Al-
ternativ fhrt die TIM AG individuelle TechDemos
beim Systemhaus vor Ort durch. Die Teilnahme
ist kostenlos. Rund 95 Prozent der Veranstal-
tungsdauer werden blicherweise fr Vorfh-
rungen an den verschiedenen NetApp-Systemen
und von praktischen Anwendungsszenarien
genutzt. Die anwesenden Experten erklren
nicht nur die Funktionsweise der Maschinen,
sondern geben Anwendern auch Tipps und sind
offen fr Fragen zu individuellen Problemen.
Natrlich ergibt sich whrend der Veranstal-
tungen auch Gelegenheit zum Erfahrungsaus-
tausch mit anderen NetApp-Kunden.
Interessant sind die TechDemos aber
nicht nur fr bestehende Kunden, sondern ganz
generell fr IT-Pros und Budget-Verantwort-
liche, die sich ber die NetApp-Technologie in-
formieren mchten. Im Einzelnen stehen diese
Themen zur Auswahl:
berblick: Whrend dieser TechDemo wird de-
monstriert, wie man mit NetApp mehr Efzienz
ins Rechenzentrum bringt, die Backup-Zeiten
verringert und den Storage-Bedarf reduziert.
Update: Unter dieser berschrift prsentie-
ren die NetApp-Experten, was es rund um die
Storage-Systeme der Firma Neues gibt, und
liefern hilfreiche Tipps und Hinweise zu den
Systemen.
Archive: In dieser Veranstaltung geht es aus-
schlielich um die Archivierung mithilfe von
Storage-Systemen. Zusammen mit seinen
Partnern PoINT, Henrichsen, H&S Heilig und
Schubert Software fhrt NetApp eine moder-
ne, elektronische Archivierungs-Infrastruktur
vor und informiert ber Mglichkeiten zur
Einfhrung eines solchen Systems.
Backup: Diese TechDemo beschftigt sich mit
den Backup-to-Disk-Technologien von NetApp
und dabei insbesondere mit Snapshots. Vor-
gestellt wird unter anderem die Backup-
Management-Software SnapProtect.
Virtualisierung: Alles rund um VMware vSphere
5, Microsoft Hyper-V und Citrix Xen Desktop
und das Zusammenspiel mit den NetApp-
Produkten ist das Thema in dieser TechDemo.
DeepDive: Unter diesem Titel bndelt NetApp
Veranstaltungen, die sich mit einzelnen
Funktionen und Konzepten der NetApp-
Technologie eingehender beschftigen. Im
Einzelnen heien die: TechDemos Monitoring,
Thin Provisioning, gekaufte Gigabyte effektiv
nutzen, Performance berwachen und verste-
hen, Snap drive, NetApp Know-how, Snapshots
und was dann?, NetApp Scripting, VMware
Best Practice, Oracle auf NetApp FAS, System
Management, FlexPod und Virtualisierung
(DeepDive).
Shared Infrastructure: Zusammen mit Cisco
stellt NetApp whrend dieser TechDemo Kon-
zepte und Techniken zur IT-Konsolidierung
und Kostensenkung vor.
Private Cloud: In dieser Veranstaltung dreht
sich alles um die Integration von Microsoft-
und NetApp-Produkten und um die Virtuali-
sierung im Data Center mit Microsoft Hyper-V.
SAP Referenz-Architektur / SAP HANA: In
dieser Veranstaltung wird ein vollautomati-
sierter Workow zum Bereitstellen von SAP-
Systemen fr Testumgebungen oder zum
Erzeugen von SAP Standby-Systemen vorge-
fhrt. Auer dem geht es um die Zusammenar-
beit von NetApp-, Cisco- und SAP-Systemen.
Spezial Cluster Mode: Wer nach dem voran-
gegangenen Text weitere Informationen zum
Cluster-Mode von Data ONTAP 8.1 sucht, ist
auf dieser Veranstaltung gut aufgehoben.
Healthcare: Bei dieser TechDemo demons-
trieren die Experten, wie sich mit NetApp-
Produkten im Gesundheitswesen die Total
Costs of Owner ship senken und gleichzeitig
die Verfgbarkeit und die Performance er-
hhen lassen.
Jede TechDemo dauert inklusive Pausen
zwischen drei und vier Stunden. Informationen
zu Terminen und Veranstaltungsorten sowie
ein Anmeldeformular stehen unter der Adresse
http://techdemo.de bereit. Individuelle Termine
unter Tel. 0611 2709-240.
Weitere Informationen: TIM AG Tel. 0611 2709-0 www.tim.de xx yy 16 17
Nur die synchrone Spiegelung und das Vaulting sind noch nicht in den Cluster-Mode integriert.
Hersteller
Backup und Restore mssen schneller und
einfacher werden. Das sind, kurz zusammen-
gefasst, die beiden wichtigsten Anforderungen
an die Backup-Administratoren. Eine Beschleu-
nigung der Sicherungen ist erforderlich, da die
Datenmengen rasant zunehmen, whrend die
Zeitfenster frs Backup unverndert bleiben
und tendenziell sogar eher verkleinert werden.
Gleichzeitig sollen Restore-Vorgnge beschleu-
nigt werden, um auf diese Weise die Downtime
der Systeme zu verringern und die Produktivi-
tt der betroffenen Abteilungen so schnell wie
mglich wiederherzustellen.
Was die Forderung nach Vereinfachung
angeht, so bezieht sie sich vor allem auf das Da-
tenhandling. Es soll so weit wie mglich auto-
matisiert werden, um die damit befassten Mit-
arbeiter an anderer Stelle einsetzen zu knnen.
Teilweise ist eine Automatisierung schon allein
deshalb notwendig, da bei vielen Unternehmen
die kleineren Vertriebsauenstellen keine eigene
IT-Abteilung beschftigen. Die Datensicherung
muss daher unabhngig von User-Eingriffen
funktionieren.
Auerdem steht natrlich jede IT-Ab-
teilung stndig unter dem Druck, ihre Kosten-
struktur kontinuierlich zu berprfen und zu
optimieren. Die Aufbewahrung lterer Daten,
die beispielsweise aus Compliance-Grnden
nicht gelscht werden drfen, soll zum einen so
organisiert werden, dass sie sicher geschtzt
sind und nur ausgewhlte Personen darauf Zu-
griff haben. Gleichzeitig soll die Lagerung natr-
lich so gnstig wie mglich sein.
Mischumgebung frs Backup
Quantum begegnet diesen unterschied-
lichen Anforderungen bei der Datensicherung
mit einem Konzept, das sowohl Disk- wie auch
Tape-basierte Backups umfasst. Die Appliances
aus der DXi-Serie sind mit Festplatten ausge rs-
tet, bei den Scalar-Systemen der Firma handelt
es sich um Tape Libraries. Quantum ist davon
berzeugt, dass der Kunde die bestmgliche
Performance und Efzienz erzielt, indem er
beides miteinander kombiniert und die Kapazitt
der Systeme an seine Anforderungen anpasst.
So lsst sich beispielsweise die DXi4600
von 2 bis hin zu 12 Terabyte skalieren. Viele
Kunden whlen dabei zunchst eine niedrigere
Ausbaustufe, um spter auf einen steigenden
Storage-Bedarf reagieren zu knnen. Mit der
Key-Freischaltung hat Quantum dabei eine be-
sonders einfache und schnell umsetzbare Me-
thode ersonnen, um die Kapazitt zu skalieren:
Der Kunde bekommt die DXi4600 von vorn-
herein mit einer hheren Festplatten-Kapazitt
geliefert als er bentigt. Was ber den bestellten
Bedarf hinausgeht, ist jedoch zunchst nicht
verfgbar. Wenn die Anforderungen im Laufe der
Zeit wachsen, kann er den zustzlichen Storage
ber einen Software-License-Key selbststndig
in 2-Terabyte-Schritten freischalten (Capacity on
Demand). Auf diese Weise passt er das System
jederzeit exibel an seine Bedrfnisse an und
muss wegen der Kapazittserweiterung keine
Betriebsunterbrechung in Kauf nehmen.
Die DXi-Appliances von Quantum sind
konzipiert fr Disk-to-Disk-Backups (D2D).
Dank schneller Zugriffszeiten und der Online-
Verfg barkeit der Daten erlauben sie schnelle
Restore-Vorgnge, was beim Desaster-Recove-
ry-Fall die Downtime der betroffenen Systeme
so kurz wie mglich hlt. Gleichzeitig bieten
sie eine Deduplizierung der gesicherten Daten
an. Mit dieser Technik werden doppelt vorhan-
dene Datenblcke durch Pointer ersetzt, die auf
die Originale verweisen. Dank der von Quan-
tum eingesetzten Deduplizierung mit variabler
Blocklnge arbeiten die Appliances besonders
effektiv. Laut einer Untersuchung des Markt-
forschungsinstituts IDC bei verschiedenen
Quantum-Kunden kann damit das Datenvolumen
im Durchschnitt um etwa den Faktor 15:1 oder
93 Prozent reduziert werden. Fr die Unterneh-
men bedeutet das deutliche Einsparungen bei
den Storage-Kosten. Gleichzeitig ist es damit
mglich, die knapp gewordenen Backup-Zeit-
fenster wieder einzuhalten.
Doch in manchen IT-Umgebungen ma-
chen sich anschlieend andere Flaschenhlse
bemerkbar, die ein schnelles Sichern der Daten
verhindern. So ergab sich bereits bei mehreren
Kunden der Fall, dass auch die Weiterleitung
der deduplizierten, also reduzierten Datenmenge
nicht innerhalb des vorgegebenen Zeit fensters
mglich war, da die Verbindung zwischen
Server-Infrastruktur und Backup-Umgebung zu
schmalbandig ausgelegt war. Fr diese Flle hat
Quantum Accent entwickelt. Die Software wird
auf dem Media- oder Backupserver eingerich-
tet und ermglicht eine Deduplizierung auf der
Source-Seite. Dazu kommuniziert sie mit der DXi
und analysiert, welche Daten aus dem aktuellen
Backup-Satz dort bereits vorhanden sind. Diese
Blcke werden daher nicht mehr bers Netzwerk
geschickt, sondern bereits im Vorfeld durch Poin-
ter ersetzt. Das verringert sprbar die Belastung
des LAN und ermglicht innerhalb eines ver-
tretbaren Zeitfensters auch bei schmalbandigen
Verbindungen das Sichern groer Datenmengen.
Der Nachteil ist natrlich, dass beim Media-
oder Backupserver CPU-Kapazitt abgezwackt
wird wie viel lsst sich mit dem Bordwerkzeug
des Betriebssystems und durch Priorisierung der
entsprechenden Prozesse steuern.
Backup-Lsungen fr mehr
Effzienz und Wirtschaftlichkeit
Mit seinen Disk- und Tape-Devices fhrt Quantum vor, wie sich die beiden Technologien zum Nutzen des
Kunden sinnvoll miteinander kombinieren lassen.
DX 4510
Scalar
Tape Library
DX 4601
DX 6700
Die DXi-Familie bietet eine Disk-basierte Datensicherung fr Zweigstellen & Rechenzentren, erlaubt einen
automatisierten DR-Schutz durch Replikation und ermglicht eine transparente Auslagerung der Backups auf
moderne Tape Libraries.
Quantum
Weitere Informationen: TIM AG Tel. 0611 2709-0 www.tim.de xx yy
Ob der Einsatz von Accent sinnvoll ist
oder nicht, muss jeweils anhand der vorhan-
denen IT-Infrastruktur entschieden werden.
Mithilfe spezieller Analyse-Tools lsst sich be-
reits im Vorfeld einschtzen, wie stark die CPU-
Belastung auf dem Media- oder Backupserver
vermutlich ausfallen wrde und ob die nach
vorne gezogene Deduplizierung die Daten-
sicherung beschleunigt oder sie im Endeffekt
eher hemmt. Daher kann der Administrator
den Einsatz von Accent auf einzelne Server be-
schrnken oder die Software auch auf mehreren
Maschinen parallel laufen lassen.
Disk und Tape ergnzen sich
Die Datensicherung auf Band kann auf
eine lange Geschichte verweisen. In den vergan-
genen Jahren schien sie jedoch gegenber den
D2D-Backups den Rckzug angetreten zu haben.
Mittlerweile hat sich jedoch gezeigt, dass die
neuen D2D-Verfahren dem Tape gewissermaen
sogar eine Bestandsgarantie gegeben haben.
Disk-basierte Hardware wie die Quantum
DXi erfllt heute die Funktion einer Art Cache fr
Tape-Laufwerke wie die Scalar-Serie von Quan-
tum. Die Festplatten halten die frisch gesicher-
ten Daten bereit fr schnelle Restore-Vorgnge.
Die D2D-Sicherungen lassen sich weitgehend
automatisieren die Appliances sind wartungs-
arm, und es mssen im Normalfall keine Medien
ausgetauscht werden. Entsprechende Backup-
Routinen eignen sich also auch fr Auenstel-
len, die keine eigene IT-Abteilung beschftigen.
Fr eine abschlieende Archivierung knnen die
Daten schlielich per WAN ins Rechenzentrum
der Unternehmenszentrale bertragen werden.
Hug wird auf Disk-Devices ein Tiering
organisiert: Die Datenblcke werden automa-
tisch auf preiswerte, jedoch weniger perfor-
mante SATA-Platten gelegt, die Verwaltungs-
datenbanken hlt man auf schnellen, dafr
allerdings teureren SSDs vor. Auf diese Weise
erreicht man eine optimale Ausnutzung der vor-
handenen Ressourcen.
Mit Tape-Laufwerken kann man sozusa-
gen noch ein weiteres Tier-Level hinzufgen.
Tapes haben den Vorteil, dass sie Daten spei-
chern, ohne dabei Strom zu verbrauchen. Hinzu
kommt die hohe Kapazitt: Die sechste Genera-
tion der LTO-Laufwerke kann die Bnder mit bis
zu 8 Terabyte komprimierten Daten bestcken.
Von einem konomischen Standpunkt aus gese-
hen sind sie daher bei langen Aufbewahrungs-
fristen den Festplatten berlegen.
Hohe Sicherheit durch Verschlsselung
Hinzu kommt die hohe Sicherheit: Alle
LTO-4- und LTO-5-Libraries verschlsseln die
Daten mit einem 256-Bit-AES-Algorithmus,
die Daten sind daher mit Brute-Force-Attacken
praktisch nicht lesbar zu machen. Um die auf-
wendige Verwaltung der Schlssel zu verein-
fachen, bietet Quantum die Scalar Key Manager
Appliance an, die perfekt angepasst ist an die
Tape-Libraries der Firma. Die Appliance generiert
die Schlssel, registriert die Zuordnungen zu
den Bndern und synchronisiert die Schlssel-
Datenbanken zwischen den primren und den
sekundren Appliances. Einmal eingerichtet,
braucht sich der Administrator um das Schls-
sel-Management nicht mehr zu kmmern.
Ganz generell sorgt aber bereits schon der
Technologiewechsel von Disk zu Tape fr einen
hheren Schutz der Daten. Durch den Wechsel
von online verfgbaren Festplatten zu ofine
verwahrten Tapes werden die Datenbestnde
in einem kontinuierlichen Vorgang aus dem di-
rekten Zugriff von Angreifern genommen.
Einen Nachteil hat die Kombination aus
D2D-Backup und Tape-Archivierung allerding
doch: Die Daten mssen in zwei Durchlufen
gesichert werden. blicherweise landen sie zu-
nchst auf einer Virtual Tape Library (VTL) oder
einem NAS-Device, anschlieend werden sie auf
Tapes bertragen. Der kontrollierende Backup-
server wird daher doppelt belastet.
Quantum hat daher mit Direct Path to
Tape ein Verfahren entwickelt, um diesen Vor-
gang zu vereinfachen und zu beschleunigen.
Der Server behlt dabei trotzdem die Kontrolle
ber den gesamten Vorgang, initiiert und ber-
wacht die Sicherungslufe. Mglich machen
das entsprechende Funktionen unter anderem
in Symantec NetBackup, Backup Exec und EMC
NetWorker. Mit Direct Path to Tape ergibt sich
aber noch ein weiterer Vorteil: Solange ein Back-
up sowohl auf der DXi wie auf Tape vorliegen,
lsst sich im Restore-Fall auswhlen, von wo
aus die Daten wiederhergestellt werden sollen.
Oft ist dabei das Tape vorteilhafter, da schneller:
Denn auf der DXi liegen die Daten dedupliziert
vor, mssen also erst rekonstruiert werden. So-
bald das Tape andererseits erst einmal eingelegt
ist, lassen sich die Daten mit Transferraten von
bis zu 100 MByte zurckkopieren.
Eine noch tiefere Integration wird ber
die OpenStorage API von Symantec erreicht, um
beispielsweise in Replikationsszenarien die kom-
plette Kontrolle beim Backupserver zu belassen.
Somit sind Szenarien wie Backup-to-Disk > Re-
plikation > Disk-to-Tape automatisiert mglich.
Der Administrator kann auch hier im Restore-
Fall entscheiden, von welchem Tier er einen
Restore starten mchte.
Einheitliche Verwaltung
Quantum bietet umfassende, aufeinan-
der abgestimmte Lsungen fr efziente und
wirtschaftliche Backups an. Um die verfgbaren
Features der Hardware jedoch in vollem Um-
fang einsetzen zu knnen, braucht es auch eine
entsprechende Software fr die Steuerung und
Verwaltung. Und auch die hat der Hersteller im
Programm: Mit Quantum Vision lassen sich die
Disk- und Tape-Devices ber eine einheitliche
Management-Oberche kongurieren und
ber wachen, was dann zum Schluss die Efzienz
der Quantum-Lsungen noch einmal erhht.
DXi6701/02
Local LAN
connection
Media Server
with DXi Accent
Disabled
Media Server
with DXi Accent
Enabled
Media Server with
DXi Accent Enabled
WAN connection
to remote site
Replication to DXi
appliance for DR
Direct tape creation
over FC for long-term
retention
Die DXi Accent Software erlaubt, Backup- und/oder Media-Server aktiv am Deduplizierungsprozess zu beteiligen.
So werden nur noch einzigartige Datenblcke ber das LAN oder WAN an die DXi Appliance gesendet.
xx yy 18 19
Vision vereinheitlicht das Management fr alle
Quantum Disk-/Tape-Lsungen und liefert
de taillierte Status der Systeme auch unterwegs
fr iOS- und Android-basierte Mobilgerte.
TIM AG
65201 Wiesbaden
Tel. 0611 2709-0
www.tim.de
www.storagemall.de
www.storagecompetencepartner.de
interface systems GmbH
01277 Dresden
Tel. 0351/31809-11
sales@interface-systems.de
www.interface-systems.de
COMPAREX Deutschland AG
04329 Leipzig
Tel. 0341/2568-2360
sven.mueller@comparex.de
www.comparex.de
Wichmann Datentechnik GmbH
06526 Sangerhausen
Tel. 0345/2330415
steffen.grothum@wisys.de
www.wd-sgh.de
Kiefel Informationssysteme
GmbH & Co. KG
09669 Frankenberg
Tel. 037206/77-0
udo.bretschneider@kiefel-is.biz
www.kiefel-is.biz
ebunet e. Kfm.
13597 Berlin
Tel. 030/747526-0
vertrieb@ebunet.de
www.ebunet.de
Systema Gesellschaft fr
an gewandte Datentechnik mbH
14482 Potsdam
Tel. 0331/74770-650
h.bischof@systema-online.de
www.systema-online.de
Friedrich Karl Schroeder GmbH
& Co. KG
22309 Hamburg
Tel. 040/63705-0
info@fks.de
www.fks.de
TRAFFIX Network Partner GmbH
22303 Hamburg
Tel. 040/682872-73
storage@trafx.de
www.trafx.de
BASYS EDV-Systeme GmbH
28357 Bremen
Tel. 0421/43420-0
vertrieb@basys-bremen.de
www.basys-bremen.de
GRASS-MERKUR GmbH & Co. KG
30559 Hannover
Tel. 0511/475414-0
info@grass-merkur.de
www.grass-merkur.de
Elanity Network Partner GmbH
30659 Hannover
Tel. 0511/610177-80
Thorsten.Pommrenke@elanity.de
www.elanity.de
Midland IT GmbH
32427 Minden
Tel. 0571/97234-0
info@midland-it.de
www.midland-it.de
unilab Systemhaus GmbH
33100 Paderborn
Tel. 05251/1656-113
beckmann@unilab.de
www.unilab.de
DextraData GmbH
45131 Essen
Tel. 0201/95975-0
info@dextradata.com
www.dextradata.com
CNS Computer Network
Systemengineering GmbH
45894 Gelsenkirchen-Buer
Tel. 0209/38642-0
info@cns-gmbh.de
www.cns-gmbh.de
Global Information Distribution
GmbH
50670 Kln
Tel. 0821/2584914
pseiler@gid-it.de
www.gid-it.de
dualutions Gmbh
50825 Kln
Tel. 0221/29290-747
aphilipps@dualutions.de
www.dualutions.de
Logicalis Gmbh
50858 Kln
Tel. 02234/95418-0
info@logicalis.de
www.logicalis.de
Pironet NDH AG
51063 Kln
Tel. 0221/299482-0
JDilthey@pironet-ndh.com
www.pironet-ndh.com
H & G, Hansen & Gieraths GmbH
53111 Bonn
Tel. 0228/9080-510
manfred.wollweber@hug.de
www.hug.de
anykey GmbH
53227 Bonn
Tel. 02241/3974-112
timm.aust@anykey.de
www.anykey.de
IT-Haus GmbH
54343 Fhren
Tel. 06502/9208-301
SSicken@IT-HAUS.com
www.it-haus.com
URANO Informationssysteme
GmbH
55543 Bad Kreuznach
Tel. 0671/84030-0
info@urano.de
www.urano.de
QOSIT Informationstechnik GmbH
57072 Siegen
Tel. 0271/250407-0
info@qosit.com
www.qosit.com
ahd hellweg data GmbH & Co. KG
59469 Ense
Tel. 02938/9779-120
carsten-lueckel@ahd.de
www.ahd.de
Pan Dacom Networking AG
63303 Dreieich
Tel. 06103/932-235
bruecker@pandacom.de
www.pandacom.de
ITservices24 GmbH
63755 Alzenau
Tel. 06023/9471-0
info@itservices24.de
www.itservices24.de
SAC GmbH
64293 Darmstadt
Tel. 06151/8133-142
jlazar@sacgmbh.com
www.sacgmbh.com
Concat AG
64625 Bensheim
Tel. 06251/7026-590
claudius.rudolf@concat.de
www.concat.de
Carpe diem Kommunikations-
Technologie GmbH
65197 Wiesbaden
Tel. 0611/95175-0
sales@carpediem.de
www.carpediem.de
CCP Condor Computer GmbH
70563 Stuttgart
Tel. 0711/97565-0
vertrieb@condor-computer.de
www.condor-computer.de
Stemmer GmbH
72186 Empngen
Tel. 07485/9991-47
thomas.ummer@stemmer.de
www.stemmer.de
am-Computersysteme GmbH
72622 Nrtingen
Tel. 07022/93280-0
contact@am-computer.com
www.am-computer.com
INNEO Solutions GmbH
73479 Ellwangen
Tel. 07961/890-520
it-info@inneo.de
www.inneo.de
Bechtle Logistik & Service GmbH
74172 Neckarsulm
Tel. 07132/981-3818
norbert.ponto@bechtle.de
www.bechtle.de
HWI Network Security e. K.
79331 Teningen
Tel. 07641/93795-0
info@hwi-networksecurity.de
www.hwi-networksecurity.de
tproneth GmbH & Co. KG
The Storage Company
82178 Puchheim
Tel. 089/44231-0
info@tproneth.de
www.tproneth.de
NAVUM GmbH
82266 Stegen a. A.
Tel. 08143/99281-0
martin.leppelt@navum.de
www.navum.de
SanData Solutions GmbH
85748 Garching
Tel. 089/905066-0
info@sandata.de
www.sandata.de
Systemzwo GmbH
89077 Ulm
Tel. 0731/141160-0
info@sz-group.de
www.sz-group.de
Schuster & Walther IT-Business
GmbH
90439 Nrnberg
Tel. 0911/9264-345
lothar.faber-castell@schuwa.de
www.schuwa.de
teamix GmbH
90449 Nrnberg
Tel. 0911/30999-0
info@teamix.de
www.teamix.de
SWS Computersysteme AG
94051 Hauzenberg
Tel. 08586/9604-0
info@swsnet.de
www.swsnet.de
HENRICHSEN AG
94315 Straubing
Tel. 09421/8109-0
info@henrichsen.de
www.henrichsen.de

You might also like