Tipps für performantere VMs

Gepostet am 24/02/2016 by blogsadmin
HAFTUNGSAUSSCHLUSS: Dieser Artikel ist älter als ein Jahr und möglicherweise nicht mit den neuesten Ereignissen oder neu verfügbaren Informationen auf dem neuesten Stand.

Gastbeitrag von Christian Stankowic, Linux-/Unix-/vSphere-Administrator

Christian Stankowic Die vSphere-Plattform genießt auf dem internationalen Markt eine sehr hohe Verbreitung – nicht zuletzt aufgrund der Stabilität und der breiten Hardwareunterstützung. Doch nach einer typischen Grundinstallation besteht noch viel Optimierungsbedarf, um der virtuellen Infrastruktur das letzte Quäntchen Geschwindigkeit zu entlocken. In den folgenden Abschnitten beleuchten wir einige Möglichkeiten.

 

Augen auf beim Hardware-Kauf!

Schon bei der Planung virtueller Infrastrukturen sollte besonderes Augenmerk auf die zu verwendende Hardware gelegt werden. Je nach Anwendungszweck sind spezielle Hardware-Konfigurationen unabdingbar, um die benötigte Performance sicherzustellen. Basierend auf dem Anwendungsfall könnten beispielsweise stärkere CPU-Modelle oder größere RAM-Konfigurationen notwendig sein.

Bei der Auswahl des Server-Typs wird meistens zwischen Rack- und Blade-Servern unterschieden. Doch in den letzten Jahren gewinnen auch HCI-Systeme (Hyper Converged Infrastructure) zunehmend an Bedeutung. Gegenüber konventionellen Server-Konzepten, vereinen diese Systeme weitere Software und Hardware Infrastruktur-Komponenten, wie beispielsweise vorkonfigurierte Verwaltungssoftware und lokalen Speicher. Der Kunde kauft so ein einzelnes Produkt, welches für die Virtualisierung vorab konfiguriert ist und in kurzer Zeit ausgerollt werden kann. Ein weiterer Vorteil von Software Defined Storage ist die erhöhte Flexibilität. Durch den Einsatz von Speicherprofilen erhalten alle VMs die Geschwindigkeit und Datenreplikation, die sie benötigen – Anpassungen sind jederzeit durch den Administrator online möglich, es sind keine Zwischenschritte durch weitere (Storage-) Administratoren notwendig. Bei der Planung einer neuen virtuellen Infrastruktur kann die Verwendung einer Hyper Converged-Lösung also durchaus interessant sein.

Beim konventionellen Cluster-Design stellt sich die Frage, ob das Scale-Up (horizontale Skalierung) or Scale-Out (vertikale Skalierung) Prinzip zum Tragen kommt. Die beiden Ansätze unterscheiden sich maßgeblich in der Anzahl und Stärke der verwendeten ESXi-Hosts – und daraus resultierend auch in den Gesamtkosten, wie die folgende Tabelle zeigt:

Scale-Up Scale-Out
Anzahl Hosts Weniger Mehr
Hardwarekosten pro Server Höher (da weniger, aber leistungsfähigere Hosts) Niedriger (da mehr, aber leistungsschwächere Hosts)
Lizenzkosten Niedriger Höher
Use-Cases VDI, In-Memory Datenbanken, CPU-intensive Workloads Typische Server-Virtualisierung

Bei der Dimensionierung der Netzwerk-Infrastruktur sollten 10 Gbit/s-Standards als Minimum angesehen werden. Die entsprechende Hardware wird immer erschwinglicher und die immer weiter steigenden Anwendungsanforderungen lassen sich nicht mehr adäquat mit langsameren Standards erfüllen. Die vSphere-Plattform unterstützt offiziell Netzwerkadapter mit bis zu 40 Gbit/s Übertragungsgeschwindigkeit.

Storage-Optimierung

Es empfiehlt sich im Vorfeld verschiedene Speichergruppen für virtuelle Workloads zu implementieren – beispielsweise:

  • Gold – Leistungsfähiger SSD-Speicher für kritische Workloads (B. ERP-/Datenbank-Systeme)
  • Silver – SAS-Datenspeicher für herkömmliche Workloads mit mittleren I/O-Anforderungen
  • Bronze – Günstiger Nearline SAS-Speicher für Entwicklungssysteme oder Workloads mit geringen I/O-Anforderungen

Diese Aufteilung ermöglicht den Kunden der virtuellen Workloads eine attraktivere Preispolitik und wirkt so auch der Verschwendung performanter Speicher entgegen – denn wer schnellen Speicher „teuer“ bezahlen muss, kauft auch nur soviel, wie nötig. Um die Aufteilung der einzelnen virtuellen Disks auf die unterschiedlichen VMFS-Speicher zu vereinfachen, empfiehlt sich die Verwendung von Datastore Clusters. Diese Technik ermöglicht es, vergleichbare Datenspeicher zu gruppieren und somit die Auswahl durch den Administrator zu vereinfachen. Anstatt einen speziellen Speicher auszuwählen, genügt die Auswahl eines Datastore Clusters und Storage DRS kann den sinnvollsten Speicher eigenständig wählen – also beispielsweise den Speicher, der aktuell den größten freien Speicherplatz hat. In dieser Kombination kann Storage DRS auch auf Speicherplatz- und Latenzveränderungen reagieren und VMs im Hintergrund verschieben, um Leistungseinbrüche zu vermeiden. Um eine faire Verwendung von Speicherressourcen sicherzustellen, empfiehlt sich die Verwendung der Storage I/O Control-Technologie.

Bei der Erstellung von VMs sollte der korrekte Controller-Typ bedacht werden. vSphere bietet hier verschiedene Alternativen, wovon bei aktuellen Gast-Betriebssystemen die Wahl immer auf PVSCSI (VMware Paravirtual SCSI) fallen sollte. Dieser Controller ist speziell für hohe, parallelisierte I/O-Anfragen konzipiert und bietet einen niedrigen CPU-Overhead. Es empfiehlt sich auch, den Speicher einer VM auf verschiedene virtuelle Festplatten und Controller zu verteilen (z.B. für das Gastbetriebssystem und die Applikationsdaten), um die I/O-Last besser zu verteilen.

VMs für hohen Netzwerkdurchsatz konfigurieren

Analog zur Speicheranbindung, bietet vSphere bei der Implementation virtueller Netzwerke ebenfalls verschiedene virtuelle Netzwerkkarten für VMs. Hier sollte die Wahl in jedem Fall auf VMXNET3 fallen – dieser Adapter wurde speziell für virtualisierte Umgebungen entwickelt und bietet den besten Datendurchsatz bei niedrigem CPU-Overhead.

Grafik_1

Für Workloads mit besonders hohen Durchsatz- und Latenz-Anforderungen besteht die Möglichkeit, physische Netzwerkkarten mithilfe von SR-IOV (Single Root I/O Virtualization) ohne Interaktion des Kernels zu verwenden. Das erhöht den Datendurchsatz und verringert die Latenz geringfügig – hat aber auch gewisse Anforderungen und auch seine Schattenseiten. Der größte Nachteil ist, dass die Verwendung dieser Technik zahlreiche nützliche vSphere-Features deaktiviert – beispielsweise High Availability, Fault Tolerance, DRS und Snapshots. Ein hoher Preis für etwas niedrigere Latenz und höheren Datendurchsatz – oder?

Mehrere VMs, die ein hohes Netzwerk-Aufkommen zueinander generieren – beispielsweise Multi-Tier-Anwendungen – können mittels DRS-Affinitätsregeln auf einen ESXi-Host verschoben werden, um die Netzwerkkommunikation innerhalb des Hosts abzuwickeln. In einem solchen Fall muss zwischen Performance und Verfügbarkeit abgewägt werden. Fällt beispielsweise ein ESXi-Host aus, auf dem mehrere VMs einer Multi-Tier-Anwendung ausgeführt werden, kann das weitreichende Folgen haben.

Benchmarking, Monitoring und Troubleshooting

In jedem Fall ist es unabdingbar, die Geschwindigkeit der virtuellen Infrastruktur zu messen und die einzelnen Komponenten einer ständigen Überwachung zu unterziehen. Für virtuelle Maschinen gibt es mit IOmeter und iperf hervorragende Programme zur Messung von Storage- und Netzwerk-Kennzahlen. Die einzelnen Test-Szenarien sollten dabei möglichst realistisch, also produktionsnah, aufgebaut werden. Es empfiehlt sich also auch – falls möglich – Anwendungen und Benutzeraufkommen nachzustellen. Für zahlreiche Applikationen gibt es entsprechende Simulations- und Benchmark-Tools.

Zur Überwachung der virtuellen Infrastruktur gibt es mit vCenter Server und vRealize Operations zwei ausgezeichnete Tools, die mit zahlreichen Graphen die Möglichkeit bieten, eventuelle Leistungsengpässe auf einzelne Komponenten herunterzubrechen. Unabdingbar ist auch die Echtzeit-Überwachung von ESXi-Hosts im Problemfall mithilfe esxtop bzw. resxtop. Diese Programme bieten zahlreiche Metriken und erlauben es mit verschiedenen Indikatoren eine äußerst detaillierte Laufzeit-Analyse aus Sicht des Kernels auszuführen.

Fazit

Das VMware-Portfolio bietet eine breite Auswahl an Technologien und Werkzeugen, die sich bei der Optimierung von virtuellen Infrastrukturen als wertvoll erweisen können. Bestehende Infrastrukturen lassen sich in vielerlei Hinsicht optimieren – einige Möglichkeiten haben wir in diesem Artikel kennengelernt.

699EN_4699_VSphere High Performance Essentials

Mein neues Buch „vSphere High Performance Essentials“ versteht sich als umfassender Ratgeber für performante vSphere-Umgebungen. Behandelt werden unter anderem:

  • Planen, Konfigurieren und Überwachen von virtuellen Infrastrukturen, um den Anforderungen performance-intensiver Workloads gerecht zu werden
  • Implementieren von performanten und verlässlichen Storage- und Netzwerk-Konzepten
  • Analysieren und Optimieren von VMs hinsichtlich der Performance

Sprache: Englisch
Seitenanzahl: 248
ISBN: 9781783551699

Das Buch kann ab sofort auf der PacktPub-Webseite oder auch bei Amazon erworben werden. Mit dem Promo Code AUTWB50vps erhalten Sie 50 Prozent Nachlass. Der Code ist bis zum 30. Mai 2016 gültig. Für mobile Endgeräte gibt es entsprechende Downloads in Apple iTunes oder Google Play.

Sie möchten bei VMware immer up to date sein? Dann folgen Sie VMware auf TwitterXING, LinkedIn & Youtube.

Kategorie: Neuigkeiten & Highlights

Schlagwörter: , , , , , , , , ,

Ähnliche Artikel

Gepostet am 14/02/2020 von jschaub

Moderne Anwendungen – Auftaktveranstaltung 2020

Nur wenige Investitionen sind für geschäftlichen Erfolg und digitale Transformation so wichtig wie Anwendungen. Das vollständige Portfolio aus vorhandenen und geplanten Anwendungen prägt Kundenbeziehungen, Umsatzmodelle, Mitarbeitererfahrungen und Geschäftsabläufe.

Gepostet am 13/04/2017 von blogsadmin

Machen Sie sich das Leben leicht mit Hyper-Converged Infrastructure

Rund 12 Wochen dauert die Bereitstellung einer neuen IT-Infrastruktur im Durchschnitt – eine viel zu lange Zeit für Unternehmen, die agil auf neue Herausforderungen reagieren können müssen! Zum Glück gibt es hier eine Lösung – oder um genauer zu sein zwei Lösungen, die sich perfekt ergänzen: SDDC und Hyper-Converged Infrastructure. Erfahren Sie mehr!

Gepostet am 05/08/2019 von jschaub

VMware Cloud on AWS: Bereiten Sie eine gute Basis: Teil 1

Kunden nutzen ihre On-Premises-Infrastruktur bereits seit vielen Jahren. Das heutige Zeitalter der digitalen Transformation erfordert jedoch Innovationen und die Bereitstellung moderner Infrastrukturen. Aus diesem Grund wenden sie sich der Public Cloud zu, die Vorteile hinsichtlich Innovationen, Skalierbarkeit, Kosteneinsparungen usw. bietet. Gleichzeitig möchten sie jedoch ihre On-Premises-Infrastruktur behalten und die Vorteile beider Welten vereinen. Mithilfe von Hybrid Cloud-Infrastrukturen lassen sich Silos beseitigen und die On-Premises-Infrastruktur in die Public Cloud integrieren.

Kommentare

Keine Kommentare bisher

Schreiben Sie einen Kommentar

Ihre E-Mail Adresse wird nicht veröffentlicht.

This site uses cookies to improve the user experience. By using this site you agree to the privacy policy