So wird Ihr VDI-Projekt nicht zum Gruseln!

Virtualisierungsprojekte erfordern oft Investition in die Infrastruktur. Vor allem Speicher wird schnell zum Engpass, der das Projekt unerwartet verteuern kann.

von Alex Aizman, CTO, Nexenta Systems

Auf den ersten Blick ist Virtualisierung eine grossartige Lösung für viele Organisationen um ihre Probleme mit dem Management ihrer PC-Infrastrukur zu lösen. Was sollte man auch dagegen haben, ein sicheres und für alle gleiches Betriebssystem über alle PCs und Notebooks zu verwalten, zu erhalten und regelmässig zu aktualisieren? Speziell in der IT sind die Dinge jedoch nie genauso einfach wie sie zuerst erscheinen. Oftmals bedeutet die Vereinfachung des Systems an einer Stelle mehr Komplexität an einer anderen.

Es ist ein wenig so wie in einem Horrorfilm, in dem das arglose Opfer sich auf der Flucht in einen Raum rettet, um festzustellen, dass dort ein noch größerer Grauen wartet. Immer wenn jemand also davon spricht ein Virtualisierungsprojekt anzustossen sollte man dieses Bild vor Augen haben, da es einiges zu beachten gilt bevor man dies umsetzt. Eine der größten Herausforderungen eines jeden Virtualisierungsprojektes ist der Speicher. Oder wußten Sie, dass für jeden Euro, der für Virtualisierung ausgegeben wird, 3 bis 7 Euro für Speicher anfallen? Das wäre das angesprochene Grauen hinter der sicheren Virtualisierungs-Tür.

Woran liegt es, dass dem Speicher eine solche Wichtigkeit zukommt? Dutzende oder sogar hunderte von Desktops auf einem einzelnen Server zu konsolidieren bedeutet, diesen mit vielen kleinen Random I/O-Operationen dieser Desktops zu laden. Also Datenverkehr, der im Allgemeinen als „Boot Storm“, „Login Storm“ und zufälligen Spitzen beim Schreiben von Daten auf dem Server bezeichnet werden. Es ist natürlich wichtig zu verstehen, dass der Speicherbedarf nicht nur eine physische Komponente hat, sondern sich auch auf IOPS bezieht.

Die Anforderungen an ein Untersystem des Speichers um hunderte oder sogar tausende virtueller Desktops unter Windows zu nutzen sind sehr hoch. Boot Storms zu Beispiel können zur Folge haben, dass virtuelle Desktops mehrere Minuten länger zum Laden benötigen als notwendig. Dies stellt den größten Unterschied zwischen Server-Virtualisierung und VDI-Implementierungen dar: Im Serverumfeld werden Belastungsspitzen zwischen Applikationen zufällig verteilt, wobei Spitzen im VDI-Umfeld sehr häufig auftreten. Natürlicherweise ist eine Fluktuation der Performance bei Servervirtualisierung weniger problematisch, da ein Sinken der Leistung bei VDI direkten negativen Einfluss auf die Arbeitsbedingungen von Nutzern hat.

Speicher in einer traditionellen Infrastruktur werden oft mit sequentiellen Schreib- und Lesevorgängen im Verhältnis 80 zu 20 konfrontiert. Hunderte Desktops in einem VDI-Umfeld verändern dieses Verhältnis massiv bis auf 40 zu 60. Das dies natürlich eine neue Herausforderung für Hard- und Software des Speichers bedeutet ist offensichtlich. Ein Weg, um das Problem von Belastungsspitzen zu umgehen besteht darin, Caching mit Solid State Disks zu nutzen, die Schreib- und Lesevorgänge im Rahmen einer Tiered Storage Architektur zu beschleunigen. In nur wenigen Fällen ist es Unternehmen möglich, bestehenden Speicher für eine neue VDI Implementierung zu nutzen. Im Allgemeinen ist es jedoch besser nach neuen Lösungen zu suchen, die den Herausforderung in Sachen VDI-Performance und Kosten gewachsen sind. Genutzt werden hier oft SSDs um die Performance bei Schreib- und Lesevorgängen zu verbessern, I/O-Muster zu glätten und die hohen Ansprüche kostengünstig zu erfüllen.

Der beste Weg, unangenehme Überraschung mit VDI zu vermeiden ist ausreichende Planung der Implementierung, auch mit Hinblick auf die richtige Menge an Speicher. Auch Kompression, Deduplikation und Thin Provisioning können helfen die Kosten für VDI-Storage zu senken. Einige Hersteller stellen Technologien bereit, die aufkommende Probleme und Engpässe bei Virtualisierung im Netzwerk vermeiden können. Der Horrorfilm könnte also ausnahmsweise auch einmal mit einem Happy End enden!

Nexenta Systems ist der führende Anbieter von OpenStorage-Lösungen für Großunternehmen. Nexentas Flaggschiff-Produkt, die Software-Plattform NexentaStor, bietet höchste Performance, ist ultra skalierbar, optimiert für Cloud und Virtualisierung und ist eine der am meisten eingesetzten Systeme für Flash und SSDs um höchste Leistung zu erzielen. Aufbauend auf ZFS-Technologie und einsetzbar auf Standard-Hardware, beseitigt NexentaStor Fesselverträge mit Herstellern und bietet offenes Unified Storage-Management zu einem Bruchteil der Kosten eines Systems etablierter Anbieter. Mehr Informationen über Nexenta Systems und kostenlose Testversionen des auf ZFS basierten NexentaStor finden sich unter www.nexenta.com. Partner, die Geräte aufbauend auf standardisierter Hardware und NexentaStor anbieten, sind unter www.nexenta.com/partners zu finden.

Nexenta Systems
Carsten Wunderlich
6 West Street, Weavers Yard
GU79DN Farnham
00441252717040

http://www.nexenta.com
cwunderlich@touchdownpr.com

Pressekontakt:
TouchdownPR
Carsten Wunderlich
6 West Street, Weavers Yard
GU79DN Farnham
cwunderlich@touchdownpr.com
00441252717040
http://www.touchdownpr.com