HAFTUNGSAUSSCHLUSS: Dieser Artikel ist älter als ein Jahr und möglicherweise nicht mit den neuesten Ereignissen oder neu verfügbaren Informationen auf dem neuesten Stand.
Gastbeitrag von Christian Stankowic, Linux-/Unix-/vSphere-Administrator
Die vSphere-Plattform genießt auf dem internationalen Markt eine sehr hohe Verbreitung – nicht zuletzt aufgrund der Stabilität und der breiten Hardwareunterstützung. Doch nach einer typischen Grundinstallation besteht noch viel Optimierungsbedarf, um der virtuellen Infrastruktur das letzte Quäntchen Geschwindigkeit zu entlocken. In den folgenden Abschnitten beleuchten wir einige Möglichkeiten.
Augen auf beim Hardware-Kauf!
Schon bei der Planung virtueller Infrastrukturen sollte besonderes Augenmerk auf die zu verwendende Hardware gelegt werden. Je nach Anwendungszweck sind spezielle Hardware-Konfigurationen unabdingbar, um die benötigte Performance sicherzustellen. Basierend auf dem Anwendungsfall könnten beispielsweise stärkere CPU-Modelle oder größere RAM-Konfigurationen notwendig sein.
Bei der Auswahl des Server-Typs wird meistens zwischen Rack- und Blade-Servern unterschieden. Doch in den letzten Jahren gewinnen auch HCI-Systeme (Hyper Converged Infrastructure) zunehmend an Bedeutung. Gegenüber konventionellen Server-Konzepten, vereinen diese Systeme weitere Software und Hardware Infrastruktur-Komponenten, wie beispielsweise vorkonfigurierte Verwaltungssoftware und lokalen Speicher. Der Kunde kauft so ein einzelnes Produkt, welches für die Virtualisierung vorab konfiguriert ist und in kurzer Zeit ausgerollt werden kann. Ein weiterer Vorteil von Software Defined Storage ist die erhöhte Flexibilität. Durch den Einsatz von Speicherprofilen erhalten alle VMs die Geschwindigkeit und Datenreplikation, die sie benötigen – Anpassungen sind jederzeit durch den Administrator online möglich, es sind keine Zwischenschritte durch weitere (Storage-) Administratoren notwendig. Bei der Planung einer neuen virtuellen Infrastruktur kann die Verwendung einer Hyper Converged-Lösung also durchaus interessant sein.
Beim konventionellen Cluster-Design stellt sich die Frage, ob das Scale-Up (horizontale Skalierung) or Scale-Out (vertikale Skalierung) Prinzip zum Tragen kommt. Die beiden Ansätze unterscheiden sich maßgeblich in der Anzahl und Stärke der verwendeten ESXi-Hosts – und daraus resultierend auch in den Gesamtkosten, wie die folgende Tabelle zeigt:
|
Scale-Up |
Scale-Out |
Anzahl Hosts |
Weniger |
Mehr |
Hardwarekosten pro Server |
Höher (da weniger, aber leistungsfähigere Hosts) |
Niedriger (da mehr, aber leistungsschwächere Hosts) |
Lizenzkosten |
Niedriger |
Höher |
Use-Cases |
VDI, In-Memory Datenbanken, CPU-intensive Workloads |
Typische Server-Virtualisierung |
Bei der Dimensionierung der Netzwerk-Infrastruktur sollten 10 Gbit/s-Standards als Minimum angesehen werden. Die entsprechende Hardware wird immer erschwinglicher und die immer weiter steigenden Anwendungsanforderungen lassen sich nicht mehr adäquat mit langsameren Standards erfüllen. Die vSphere-Plattform unterstützt offiziell Netzwerkadapter mit bis zu 40 Gbit/s Übertragungsgeschwindigkeit.
Storage-Optimierung
Es empfiehlt sich im Vorfeld verschiedene Speichergruppen für virtuelle Workloads zu implementieren – beispielsweise:
- Gold – Leistungsfähiger SSD-Speicher für kritische Workloads (B. ERP-/Datenbank-Systeme)
- Silver – SAS-Datenspeicher für herkömmliche Workloads mit mittleren I/O-Anforderungen
- Bronze – Günstiger Nearline SAS-Speicher für Entwicklungssysteme oder Workloads mit geringen I/O-Anforderungen
Diese Aufteilung ermöglicht den Kunden der virtuellen Workloads eine attraktivere Preispolitik und wirkt so auch der Verschwendung performanter Speicher entgegen – denn wer schnellen Speicher „teuer“ bezahlen muss, kauft auch nur soviel, wie nötig. Um die Aufteilung der einzelnen virtuellen Disks auf die unterschiedlichen VMFS-Speicher zu vereinfachen, empfiehlt sich die Verwendung von Datastore Clusters. Diese Technik ermöglicht es, vergleichbare Datenspeicher zu gruppieren und somit die Auswahl durch den Administrator zu vereinfachen. Anstatt einen speziellen Speicher auszuwählen, genügt die Auswahl eines Datastore Clusters und Storage DRS kann den sinnvollsten Speicher eigenständig wählen – also beispielsweise den Speicher, der aktuell den größten freien Speicherplatz hat. In dieser Kombination kann Storage DRS auch auf Speicherplatz- und Latenzveränderungen reagieren und VMs im Hintergrund verschieben, um Leistungseinbrüche zu vermeiden. Um eine faire Verwendung von Speicherressourcen sicherzustellen, empfiehlt sich die Verwendung der Storage I/O Control-Technologie.
Bei der Erstellung von VMs sollte der korrekte Controller-Typ bedacht werden. vSphere bietet hier verschiedene Alternativen, wovon bei aktuellen Gast-Betriebssystemen die Wahl immer auf PVSCSI (VMware Paravirtual SCSI) fallen sollte. Dieser Controller ist speziell für hohe, parallelisierte I/O-Anfragen konzipiert und bietet einen niedrigen CPU-Overhead. Es empfiehlt sich auch, den Speicher einer VM auf verschiedene virtuelle Festplatten und Controller zu verteilen (z.B. für das Gastbetriebssystem und die Applikationsdaten), um die I/O-Last besser zu verteilen.
VMs für hohen Netzwerkdurchsatz konfigurieren
Analog zur Speicheranbindung, bietet vSphere bei der Implementation virtueller Netzwerke ebenfalls verschiedene virtuelle Netzwerkkarten für VMs. Hier sollte die Wahl in jedem Fall auf VMXNET3 fallen – dieser Adapter wurde speziell für virtualisierte Umgebungen entwickelt und bietet den besten Datendurchsatz bei niedrigem CPU-Overhead.
Für Workloads mit besonders hohen Durchsatz- und Latenz-Anforderungen besteht die Möglichkeit, physische Netzwerkkarten mithilfe von SR-IOV (Single Root I/O Virtualization) ohne Interaktion des Kernels zu verwenden. Das erhöht den Datendurchsatz und verringert die Latenz geringfügig – hat aber auch gewisse Anforderungen und auch seine Schattenseiten. Der größte Nachteil ist, dass die Verwendung dieser Technik zahlreiche nützliche vSphere-Features deaktiviert – beispielsweise High Availability, Fault Tolerance, DRS und Snapshots. Ein hoher Preis für etwas niedrigere Latenz und höheren Datendurchsatz – oder?
Mehrere VMs, die ein hohes Netzwerk-Aufkommen zueinander generieren – beispielsweise Multi-Tier-Anwendungen – können mittels DRS-Affinitätsregeln auf einen ESXi-Host verschoben werden, um die Netzwerkkommunikation innerhalb des Hosts abzuwickeln. In einem solchen Fall muss zwischen Performance und Verfügbarkeit abgewägt werden. Fällt beispielsweise ein ESXi-Host aus, auf dem mehrere VMs einer Multi-Tier-Anwendung ausgeführt werden, kann das weitreichende Folgen haben.
Benchmarking, Monitoring und Troubleshooting
In jedem Fall ist es unabdingbar, die Geschwindigkeit der virtuellen Infrastruktur zu messen und die einzelnen Komponenten einer ständigen Überwachung zu unterziehen. Für virtuelle Maschinen gibt es mit IOmeter und iperf hervorragende Programme zur Messung von Storage- und Netzwerk-Kennzahlen. Die einzelnen Test-Szenarien sollten dabei möglichst realistisch, also produktionsnah, aufgebaut werden. Es empfiehlt sich also auch – falls möglich – Anwendungen und Benutzeraufkommen nachzustellen. Für zahlreiche Applikationen gibt es entsprechende Simulations- und Benchmark-Tools.
Zur Überwachung der virtuellen Infrastruktur gibt es mit vCenter Server und vRealize Operations zwei ausgezeichnete Tools, die mit zahlreichen Graphen die Möglichkeit bieten, eventuelle Leistungsengpässe auf einzelne Komponenten herunterzubrechen. Unabdingbar ist auch die Echtzeit-Überwachung von ESXi-Hosts im Problemfall mithilfe esxtop bzw. resxtop. Diese Programme bieten zahlreiche Metriken und erlauben es mit verschiedenen Indikatoren eine äußerst detaillierte Laufzeit-Analyse aus Sicht des Kernels auszuführen.
Fazit
Das VMware-Portfolio bietet eine breite Auswahl an Technologien und Werkzeugen, die sich bei der Optimierung von virtuellen Infrastrukturen als wertvoll erweisen können. Bestehende Infrastrukturen lassen sich in vielerlei Hinsicht optimieren – einige Möglichkeiten haben wir in diesem Artikel kennengelernt.
Mein neues Buch „vSphere High Performance Essentials“ versteht sich als umfassender Ratgeber für performante vSphere-Umgebungen. Behandelt werden unter anderem:
- Planen, Konfigurieren und Überwachen von virtuellen Infrastrukturen, um den Anforderungen performance-intensiver Workloads gerecht zu werden
- Implementieren von performanten und verlässlichen Storage- und Netzwerk-Konzepten
- Analysieren und Optimieren von VMs hinsichtlich der Performance
Sprache: Englisch
Seitenanzahl: 248
ISBN: 9781783551699
Das Buch kann ab sofort auf der PacktPub-Webseite oder auch bei Amazon erworben werden. Mit dem Promo Code AUTWB50vps erhalten Sie 50 Prozent Nachlass. Der Code ist bis zum 30. Mai 2016 gültig. Für mobile Endgeräte gibt es entsprechende Downloads in Apple iTunes oder Google Play.
Kategorie: Neuigkeiten & Highlights
Schlagwörter: Benchmarking, Christian Stankowic, Monitoring, SDDC, Software-defined Storage, Troubleshooting, vmware, VMware vSphere, vSphere, vSphere High Performance Essentials
Keine Kommentare bisher