Optimierung des Wirkungsgrades virtueller Infrastrukturen
Beschreibung
vor 14 Jahren
Virtualisierungstechniken erfreuen sich immer größerer Beliebtheit
in vielen Bereichen der Informatik. Ursprünglich wiederentdeckt mit
dem Ziel Ressourcen und Dienste zu konsolidieren, dienen
Virtualisierungsansätze heute als Grundlage für moderne Grid- und
Cloud-Computing-Infastrukturen und werden damit auch im Bereich des
Hochleistungsrechnens eingesetzt. Derzeit existieren keine
objektiven und systematischen Analysen bezüglich des Wirkungsgrades
von Virtualisierungsansätzen, Techniken und Implementierungen,
obwohl sie von vielen großen Rechenzentren weltweit eingesetzt und
produktiv betrieben werden. Alle existierenden, modernen
Hostvirtualisierungsansätze setzen derzeit auf eine
Softwareschicht, die sich je nach Virtualisierungstyp zwischen
Hardware und Gast-Betriebssystem bzw. zwischen Host- und
Gast-Betriebssystem befindet. Eine Anwendung in einer virtuellen
Maschine ist somit nicht mehr nur von der Leistung des physischen
Systems abhängig, sondern ebenfalls von der Technologie des
eingesetzten Virtualisierungsproduktes und nebenläufigen virtuellen
Maschinen. Je nach Anwendungstyp kann es daher sinnvoll sein, einen
anderen Virtualisierungsansatz zu wählen und auf den Typ der
nebenläufigen virtuellen Maschinen zu achten, um den Wirkungsgrad
eines lokalen Systems sowie den der globalen Infrastruktur zu
optimieren. Um dieses Ziel zu erreichen, werden in einem
zweistufigen Ansatz zunächst theoretisch Virtualisierungsansätze
analysiert und Parameter identifiziert, deren Einfluss auf den
Wirkungsgrad in einem zweiten Schritt empirisch quantifiziert wird.
Für die Durchführung dieser quantitativen Analyse ist eine
Anpassung verbreiteter Leistungsmaße, wie z.B. Durchsatz und
Antwortzeit, für den Kontext der Virtualisierung erforderlich, da
sie sich klassisch gesehen auf das Betriebssystem einer Maschine
beziehen, eine virtuelle Maschine jedoch von der Architektur her
eher einer klassischen Anwendung entspricht. Die Messung dieses
Leistungsmaßes in virtuellen Umgebungen stellt eine weitere
Herausforderung dar, da Zeitmessung in virtuellen Maschinen
aufgrund von Scheduling durch den Hypervisor generell
fehlerbehaftet ist und somit alternative Messmethoden konzipiert
werden müssen. Basierend auf den durchgeführten Analysen und
Messungen wird anschließend ein Leitfaden entwickelt, der dabei
hilft, die zur Virtualisierung einer Infrastruktur benötigten
Ressourcen qualitativ sowie quantitativ abzuschätzen und eine
Verteilung der virtuellen Maschinen anhand ihres charakteristischen
Ressourcenbedarfes auf physische Systeme vorzunehmen, so dass
vorhandene physische Ressourcen optimal ausgenutzt werden können.
Die Automatisierung des erstellten Leitfadens durch die Entwicklung
und prototypische Implementierung eines globalen
Ressourcen-Schedulers auf der Basis eines gewichteten Constraint
Solvers rundet die Arbeit ab. Der verwendete Ansatz besitzt zwar
eine theoretisch exponentielle Laufzeitkomplexität, liefert in der
Praxis aufgrund einer entwickelten Greedy-Heuristik jedoch bereits
nach extrem kurzer Laufzeit herausragende Ergebnisse. Die
optimierten Verteilungen lassen sich anschließend mittels weniger
Live Migration realisieren, da bereits bei der Berechnung einer
Verteilung auf deren räumliche Nähe zur bestehenden Verteilung
geachtet wird.
in vielen Bereichen der Informatik. Ursprünglich wiederentdeckt mit
dem Ziel Ressourcen und Dienste zu konsolidieren, dienen
Virtualisierungsansätze heute als Grundlage für moderne Grid- und
Cloud-Computing-Infastrukturen und werden damit auch im Bereich des
Hochleistungsrechnens eingesetzt. Derzeit existieren keine
objektiven und systematischen Analysen bezüglich des Wirkungsgrades
von Virtualisierungsansätzen, Techniken und Implementierungen,
obwohl sie von vielen großen Rechenzentren weltweit eingesetzt und
produktiv betrieben werden. Alle existierenden, modernen
Hostvirtualisierungsansätze setzen derzeit auf eine
Softwareschicht, die sich je nach Virtualisierungstyp zwischen
Hardware und Gast-Betriebssystem bzw. zwischen Host- und
Gast-Betriebssystem befindet. Eine Anwendung in einer virtuellen
Maschine ist somit nicht mehr nur von der Leistung des physischen
Systems abhängig, sondern ebenfalls von der Technologie des
eingesetzten Virtualisierungsproduktes und nebenläufigen virtuellen
Maschinen. Je nach Anwendungstyp kann es daher sinnvoll sein, einen
anderen Virtualisierungsansatz zu wählen und auf den Typ der
nebenläufigen virtuellen Maschinen zu achten, um den Wirkungsgrad
eines lokalen Systems sowie den der globalen Infrastruktur zu
optimieren. Um dieses Ziel zu erreichen, werden in einem
zweistufigen Ansatz zunächst theoretisch Virtualisierungsansätze
analysiert und Parameter identifiziert, deren Einfluss auf den
Wirkungsgrad in einem zweiten Schritt empirisch quantifiziert wird.
Für die Durchführung dieser quantitativen Analyse ist eine
Anpassung verbreiteter Leistungsmaße, wie z.B. Durchsatz und
Antwortzeit, für den Kontext der Virtualisierung erforderlich, da
sie sich klassisch gesehen auf das Betriebssystem einer Maschine
beziehen, eine virtuelle Maschine jedoch von der Architektur her
eher einer klassischen Anwendung entspricht. Die Messung dieses
Leistungsmaßes in virtuellen Umgebungen stellt eine weitere
Herausforderung dar, da Zeitmessung in virtuellen Maschinen
aufgrund von Scheduling durch den Hypervisor generell
fehlerbehaftet ist und somit alternative Messmethoden konzipiert
werden müssen. Basierend auf den durchgeführten Analysen und
Messungen wird anschließend ein Leitfaden entwickelt, der dabei
hilft, die zur Virtualisierung einer Infrastruktur benötigten
Ressourcen qualitativ sowie quantitativ abzuschätzen und eine
Verteilung der virtuellen Maschinen anhand ihres charakteristischen
Ressourcenbedarfes auf physische Systeme vorzunehmen, so dass
vorhandene physische Ressourcen optimal ausgenutzt werden können.
Die Automatisierung des erstellten Leitfadens durch die Entwicklung
und prototypische Implementierung eines globalen
Ressourcen-Schedulers auf der Basis eines gewichteten Constraint
Solvers rundet die Arbeit ab. Der verwendete Ansatz besitzt zwar
eine theoretisch exponentielle Laufzeitkomplexität, liefert in der
Praxis aufgrund einer entwickelten Greedy-Heuristik jedoch bereits
nach extrem kurzer Laufzeit herausragende Ergebnisse. Die
optimierten Verteilungen lassen sich anschließend mittels weniger
Live Migration realisieren, da bereits bei der Berechnung einer
Verteilung auf deren räumliche Nähe zur bestehenden Verteilung
geachtet wird.
Weitere Episoden
vor 11 Jahren
vor 11 Jahren
vor 11 Jahren
In Podcasts werben
Kommentare (0)