Virtuelle Maschine mit Virtualisierungstools. Implementierung von Virtualisierungstools als Lösung für die zentrale Verwaltung der Unternehmensinfrastruktur

Konzept der virtuellen Umgebung

Eine neue Richtung der Virtualisierung, die mithilfe von Aggregationstechnologie ein ganzheitliches Gesamtbild der gesamten Netzwerkinfrastruktur liefert.

Arten der Virtualisierung

Virtualisierung ist ein allgemeiner Begriff, der die Abstraktion von Ressourcen für viele Aspekte der Datenverarbeitung abdeckt. Die Arten der Virtualisierung sind unten aufgeführt.

Softwarevirtualisierung

Dynamische Übertragung

Mit dynamischer Übersetzung ( binäre Übersetzung) werden problematische Gast-OC-Befehle vom Hypervisor abgefangen. Nachdem diese Befehle durch sichere ersetzt wurden, wird die Kontrolle an das Gastbetriebssystem zurückgegeben.

Paravirtualisierung

Paravirtualisierung ist eine Virtualisierungstechnik, bei der Gastbetriebssysteme für die Ausführung in einer virtualisierten Umgebung vorbereitet werden, für die ihr Kernel leicht modifiziert wird. Das Betriebssystem interagiert mit dem Hypervisor-Programm, das ihm eine Gast-API zur Verfügung stellt, anstatt direkt Ressourcen wie die Speicherseitentabelle zu verwenden.

Das Paravirtualisierungsverfahren ermöglicht eine höhere Leistung als das dynamische Übersetzungsverfahren.

Die Paravirtualisierungsmethode ist nur anwendbar, wenn das Gastbetriebssystem Open Source ist, das gemäß der Lizenz geändert werden kann, oder der Hypervisor und das Gastbetriebssystem vom selben Hersteller entwickelt wurden, unter Berücksichtigung der Möglichkeit der Paravirtualisierung des Gastbetriebssystems (obwohl vorausgesetzt dass ein Hypervisor unter der Hypervisor-Unterebene laufen kann, dann die Paravirtualisierung des Hypervisors selbst).

Der Begriff tauchte erstmals im Denali-Projekt auf.

Eingebaute Virtualisierung

Vorteile:

  • Gemeinsame Nutzung von Ressourcen zwischen beiden Betriebssystemen (Kataloge, Drucker usw.).
  • Benutzerfreundliche Oberfläche für Anwendungsfenster unterschiedlicher Systeme (überlappende Anwendungsfenster, gleiche Fensterminimierung wie im Hostsystem)
  • Bei Feinabstimmung auf die Hardwareplattform unterscheidet sich die Leistung kaum von der des ursprünglichen nativen Betriebssystems. Schnelles Umschalten zwischen Systemen (weniger als 1 Sek.)
  • Ein einfaches Verfahren zum Aktualisieren des Gastbetriebssystems.
  • Zwei-Wege-Virtualisierung (Anwendungen auf einem System laufen auf einem anderen und umgekehrt)

Implementierungen:

Hardware-Virtualisierung

Vorteile:

  • Vereinfachen Sie die Entwicklung von Virtualisierungssoftwareplattformen, indem Sie hardwarebasierte Verwaltungsschnittstellen und Unterstützung für virtualisierte Gäste bereitstellen. Dies reduziert die Komplexität und den Zeitaufwand für die Entwicklung von Virtualisierungssystemen.
  • Fähigkeit, die Leistung von Virtualisierungsplattformen zu steigern. Virtuelle Gastsysteme werden direkt von einer kleinen Software-Middleware-Schicht, dem Hypervisor, verwaltet, was zu einer Leistungssteigerung führt.
  • Die Sicherheit verbessert sich, es wird möglich, auf Hardwareebene zwischen mehreren laufenden unabhängigen Virtualisierungsplattformen zu wechseln. Jede der virtuellen Maschinen kann unabhängig voneinander in ihrem eigenen Bereich von Hardwareressourcen arbeiten, vollständig isoliert voneinander. Dadurch können Sie Leistungsverluste eliminieren, um die Host-Plattform zu warten und die Sicherheit zu erhöhen.
  • Das Gastsystem ist nicht an die Architektur der Host-Plattform und an die Implementierung der Virtualisierungsplattform gebunden. Harermöglicht die Ausführung von 64-Bit-Gästen auf 32-Bit-Hostsystemen (mit 32-Bit-Hostvirtualisierungsumgebungen).

Anwendungsbeispiele:

  • Testlabore und Schulungen: Es ist praktisch, Anwendungen in virtuellen Maschinen zu testen, die sich auf die Einstellungen von Betriebssystemen auswirken, z. B. Installationsanwendungen. Aufgrund der einfachen Bereitstellung virtueller Maschinen werden sie häufig zum Trainieren neuer Produkte und Technologien verwendet.
  • Verbreitung vorinstallierter Software: Viele Softwareentwickler erstellen fertige Images virtueller Maschinen mit vorinstallierten Produkten und stellen diese kostenlos oder kommerziell zur Verfügung. Diese Dienste werden von VMware VMTN oder Parallels PTN bereitgestellt

Servervirtualisierung

  1. Platzierung mehrerer logischer Server innerhalb eines physischen (Konsolidierung)
  2. Kombinieren mehrerer physischer Server zu einem logischen Server, um ein bestimmtes Problem zu lösen. Beispiel: Oracle Real Application Cluster, Grid-Technologie, Hochleistungs-Cluster.
  • SVISTA
  • zweiOSzwei
  • Red Hat Enterprise-Virtualisierung für Server
  • PowerVM

Darüber hinaus vereinfacht die Servervirtualisierung die Wiederherstellung ausgefallener Systeme auf jedem verfügbaren Computer, unabhängig von seiner spezifischen Konfiguration.

Workstation-Virtualisierung

Ressourcenvirtualisierung

  • Ressourcenpartitionierung. Die Ressourcenvirtualisierung kann als Aufteilung eines einzelnen physischen Servers in mehrere Teile betrachtet werden, von denen jeder für den Eigentümer als separater Server sichtbar ist. Es handelt sich nicht um eine Technologie für virtuelle Maschinen, sie wird auf der Kernel-Ebene des Betriebssystems implementiert.

Auf Systemen mit einem Typ-2-Hypervisor verbrauchen beide Betriebssysteme (Gast und Hypervisor) physische Ressourcen und erfordern eine separate Lizenzierung. Virtuelle Server, die auf Betriebssystem-Kernel-Ebene arbeiten, verlieren fast nie an Geschwindigkeit, was es ermöglicht, Hunderte von virtuellen Servern auf einem physischen Server auszuführen, die keine zusätzlichen Lizenzen erfordern.

Gemeinsam genutzter Speicherplatz oder Netzwerkbandbreite in eine Reihe kleinerer, weniger genutzter Ressourcen des gleichen Typs.

Beispielsweise kann die Implementierung von Resource Sharing (Project Crossbow) zugeschrieben werden, mit der Sie mehrere virtuelle Netzwerkschnittstellen basierend auf einer physischen erstellen können.

  • Die Aggregation, Verteilung oder Hinzufügung vieler Ressourcen zu großen Ressourcen oder das Poolen von Ressourcen. Beispielsweise kombinieren symmetrische Mehrprozessorsysteme mehrere Prozessoren; RAID- und Festplattenmanager kombinieren viele Festplatten zu einer großen logischen Festplatte; RAID und Netzwerk verwenden mehrere gebündelte Kanäle, die als ein einziger Breitbandkanal erscheinen. Auf der Metaebene erledigen Computercluster all dies. Manchmal umfasst dies auch Netzwerkdateisysteme, die von den Datenspeichern abstrahiert sind, auf denen sie aufgebaut sind, z. B. Vmware VMFS, Solaris/OpenSolaris ZFS, NetApp WAFL

Anwendungsvirtualisierung

Vorteile:

  • Isolation der Anwendungsausführung: Abwesenheit von Inkompatibilitäten und Konflikten;
  • jedes Mal in seiner ursprünglichen Form: Die Registrierung ist nicht überladen, es gibt keine Konfigurationsdateien - es ist für den Server notwendig;
  • niedrigere Ressourcenkosten im Vergleich zur Emulation des gesamten Betriebssystems.

siehe auch

Verknüpfungen

  • Überblick über Virtualisierungsmethoden, Architekturen und Implementierungen (Linux), www.ibm.com
  • Virtuelle Maschinen 2007. Natalia Elmanova, Sergey Pakhomov, ComputerPress 9'2007
Servervirtualisierung
  • Servervirtualisierung. Neil McAllister, InfoWorld
  • Virtualisierung von Servern mit Standardarchitektur. Leonid Chernyak, Offene Systeme
  • Alternativen zu Führern im Kanal 2009, 17. August 2009
Hardware-Virtualisierung
  • Hardware-Virtualisierungstechnologien, ixbt.com
  • Spiralen der Hardware-Virtualisierung. Alexander Alexandrov, Offene Systeme

Anmerkungen


Wikimedia-Stiftung. 2010 .

Sehen Sie, was "Virtualisierung" in anderen Wörterbüchern ist:

    Virtualisierung- Die SNIA-Arbeiten geben die folgende allgemeine Definition. „Virtualisierung ist eine Aktion (Handlung), um mehrere Geräte, Dienste oder Funktionen der internen Komponente der Infrastruktur (Backend) mit einer zusätzlichen externen (Front … …

    Virtualisierung- Trennung der physikalischen Schicht des Netzwerks (Standort und Verbindungen von Geräten) von seiner logischen Schicht (Arbeitsgruppen und Benutzer). Richten Sie eine Netzwerkkonfiguration nach logischen statt nach physikalischen Kriterien ein. … Handbuch für technische Übersetzer

    Netzwerkvirtualisierung ist der Prozess der Kombination von Hardware- und Software-Netzwerkressourcen in einem einzigen virtuellen Netzwerk. Die Netzwerkvirtualisierung ist unterteilt in externe, dh das Verbinden vieler Netzwerke zu einem virtuellen und internen, Erstellen von ... ... Wikipedia

Die Geschichte der Virtualisierungstechnologien hat mehr als vierzig Jahre. Nach einer Zeit ihrer triumphalen Anwendung in den 70er und 80er Jahren des letzten Jahrhunderts, hauptsächlich auf IBM-Mainframes, trat dieses Konzept jedoch bei der Erstellung von Unternehmensinformationssystemen in den Hintergrund. Tatsache ist, dass das Konzept der Virtualisierung mit der Schaffung von Rechenzentren für die gemeinsame Nutzung verbunden ist, mit der Notwendigkeit, mit einem einzigen Hardwaresatz mehrere verschiedene logisch unabhängige Systeme zu bilden. Und seit Mitte der 80er Jahre begann das dezentralisierte Modell der Organisation von Informationssystemen auf der Grundlage von Minicomputern und dann x86-Servern in der Computerindustrie zu dominieren.

Virtualisierung für x86-Architektur

Bei Personal Computern, die im Laufe der Zeit auftauchten, existierte das Problem der Virtualisierung von Hardwareressourcen anscheinend per Definition nicht, da jedem Benutzer der gesamte Computer mit seinem eigenen Betriebssystem zur Verfügung stand. Aber als die Leistung von PCs zunahm und der Anwendungsbereich von x86-Systemen zunahm, änderte sich die Situation schnell. Die „dialektische Spirale“ der Entwicklung nahm ihre nächste Wendung, und um die Jahrhundertwende begann ein weiterer Zyklus der Stärkung zentripetaler Kräfte bei der Konzentration von Rechenressourcen. Zu Beginn dieses Jahrzehnts begann vor dem Hintergrund des wachsenden Interesses von Unternehmen, die Effizienz ihrer Rechneranlagen zu steigern, eine neue Stufe in der Entwicklung von Virtualisierungstechnologien, die heute vor allem mit der Nutzung der x86-Architektur verbunden ist.

Gleich vorweg sei betont, dass die Ideen zur x86-Virtualisierung zwar theoretisch bisher nichts Unbekanntes zu sein schienen, im Vergleich zur Situation vor 20 Jahren aber ein qualitativ neues Phänomen für die IT-Branche darstellten. Tatsache ist, dass in der Hardware-Software-Architektur von Mainframes und Unix-Computern Virtualisierungsprobleme sofort auf einer grundlegenden Ebene gelöst wurden. Das x86-System hingegen wurde überhaupt nicht mit der Erwartung gebaut, im Rechenzentrumsmodus zu arbeiten, und seine Entwicklung in Richtung Virtualisierung ist ein ziemlich komplexer Evolutionsprozess mit vielen verschiedenen Optionen zur Problemlösung.

Ein weiterer und vielleicht noch wichtigerer Punkt sind die grundlegend unterschiedlichen Geschäftsmodelle von Mainframe- und x86-Entwicklung. Im ersten Fall sprechen wir eigentlich von einem Software- und Hardwarekomplex von einem einzigen Anbieter, um eine eher begrenzte Auswahl an Anwendungssoftware für eine nicht sehr breite Palette von Großkunden zu unterstützen. Im zweiten Fall haben wir es mit einer dezentralen Gemeinschaft von Hardwareherstellern, Anbietern von Basissoftware und einer riesigen Armee von Entwicklern von Anwendungssoftware zu tun.

Die Verwendung von x86-Virtualisierungstools begann Ende der 90er Jahre bei Workstations: Zusammen mit der Zunahme der Anzahl der Client-Betriebssystemversionen stieg die Anzahl der Personen (Softwareentwickler, Spezialisten für technischen Support, Softwareexperten), die mehrere Kopien verschiedener Betriebssysteme benötigen Systeme.

  • Wenig später setzte man auf die Virtualisierung der Serverinfrastruktur, was vor allem auf die Lösung der Probleme der Konsolidierung von Rechenressourcen zurückzuführen war. Aber hier bildeten sich sofort zwei unabhängige Richtungen:
  • Unterstützung für heterogene Betriebsumgebungen (einschließlich Legacy-Anwendungen). Dieser Fall findet sich am häufigsten in Unternehmensinformationssystemen. Technisch wird das Problem dadurch gelöst, dass auf einem Rechner gleichzeitig mehrere virtuelle Maschinen laufen, die jeweils eine Betriebssysteminstanz beinhalten. Die Implementierung dieses Modus erfolgt jedoch mit zwei grundlegend unterschiedlichen Ansätzen: vollständige Virtualisierung und Paravirtualisierung; ·
  • Unterstützung für homogene Computerumgebungen, was am typischsten für das Anwendungshosting durch Dienstanbieter ist. Natürlich können Sie hier auch die Option virtueller Maschinen nutzen, aber es ist viel effizienter, isolierte Container auf Basis eines einzelnen Betriebssystemkerns zu erstellen.

Die nächste Lebensphase der x86-Virtualisierungstechnologien begann 2004-2006. und war mit dem Beginn ihrer Massenanwendung in Unternehmenssystemen verbunden. Beschäftigten sich frühere Entwickler dementsprechend hauptsächlich mit der Erstellung von Technologien zur Ausführung virtueller Umgebungen, so rücken heute die Aufgaben des Managements dieser Lösungen und deren Integration in die gesamte Unternehmens-IT-Infrastruktur in den Vordergrund. Gleichzeitig stieg die Nachfrage von Privatanwendern spürbar an (aber wenn es in den 90er Jahren Entwickler und Tester waren, sprechen wir jetzt über Endbenutzer - sowohl professionell als auch zu Hause).

Zusammenfassend lassen sich im Allgemeinen die folgenden Hauptszenarien für den Einsatz von Virtualisierungstechnologien durch Kunden unterscheiden:

  • Softwareentwicklung und -prüfung; ·
  • Simulation der Arbeit realer Systeme auf Forschungsständen; ·
  • Konsolidierung von Servern zur Steigerung der Effizienz der Gerätenutzung; ·
  • Konsolidierung von Servern als Teil der Lösung von Problemen bei der Unterstützung von Legacy-Anwendungen; ·
  • Vorführung und Studium neuer Software; ·
  • Bereitstellung und Aktualisierung von Anwendungssoftware unter den Bedingungen vorhandener Informationssysteme; ·
  • Arbeit von Endbenutzern (hauptsächlich Heimanwendern) auf PCs mit heterogenen Betriebsumgebungen.

Grundlegende Softwarevirtualisierungsoptionen

Wir haben bereits früher gesagt, dass die Probleme bei der Entwicklung von Virtualisierungstechnologien größtenteils mit der Überwindung der ererbten Merkmale der x86-Hardware- und -Softwarearchitektur zusammenhängen. Und dafür gibt es mehrere grundlegende Methoden.

Vollständige Virtualisierung (vollständige, native Virtualisierung). Es werden unveränderte Instanzen von Gastbetriebssystemen verwendet, und um den Betrieb dieser Betriebssysteme zu unterstützen, gibt es eine gemeinsame Ebene der Emulation ihrer Ausführung über dem Host-Betriebssystem, dem regulären Betriebssystem (Abb. 1). Diese Technologie wird insbesondere in VMware Workstation, VMware Server (ehemals GSX Server, Parallels Desktop, Parallels Server, MS Virtual PC, MS Virtual Server, Virtual Iron) verwendet. Die Vorteile dieses Ansatzes umfassen die relativ einfache Implementierung, Vielseitigkeit und Zuverlässigkeit der Lösung, alle Verwaltungsfunktionen werden vom Host-OS übernommen.Nachteile - hoher zusätzlicher Overhead für die eingesetzten Hardware-Ressourcen, fehlende Berücksichtigung der Features des Gast-OS, weniger als nötig, Flexibilität bei der Nutzung der Hardware.

Paravirtualisierung. Die Modifikation des Kernels des Gastbetriebssystems wird so durchgeführt, dass er einen neuen Satz von APIs enthält, über die er direkt mit der Hardware arbeiten kann, ohne mit anderen virtuellen Maschinen (VM; Abb. 2) in Konflikt zu geraten. In diesem Fall muss kein vollwertiges Betriebssystem als Host-Software verwendet werden, dessen Funktionen in diesem Fall von einem speziellen System namens Hypervisor ausgeführt werden. Diese Option ist heute die relevanteste Richtung in der Entwicklung von Seund wird in VMware ESX Server, Xen (und Lösungen anderer Anbieter, die auf dieser Technologie basieren), Microsoft Hyper-V verwendet. Die Vorteile dieser Technologie bestehen darin, dass kein Host-Betriebssystem erforderlich ist – VMs werden tatsächlich auf Bare Metal installiert und Hardwareressourcen werden effizient genutzt. Nachteile - in der Komplexität der Implementierung des Ansatzes und der Notwendigkeit, einen spezialisierten Betriebssystem-Hypervisor zu erstellen.

Virtualisierung auf OS-Kernel-Ebene (Virtualisierung auf Betriebssystemebene). Diese Option impliziert die Verwendung eines einzelnen Kerns des Host-Betriebssystems, um unabhängige parallele Betriebsumgebungen zu erstellen (Abb. 3). Für Gastsoftware wird nur eine eigene Netzwerk- und Hardwareumgebung erstellt. Diese Option wird von Virtuozzo (für Linux und Windows), OpenVZ (eine kostenlose Version von Virtuozzo) und Solaris Containers verwendet. Vorteile - hohe Effizienz bei der Nutzung von Hardwareressourcen, geringe technische Gemeinkosten, hervorragende Verwaltbarkeit, Minimierung der Kosten für den Kauf von Lizenzen. Nachteile - Implementierung von nur homogenen Computerumgebungen.

Anwendungsvirtualisierung impliziert die Verwendung eines Modells der starken Isolierung von Anwendungsprogrammen mit kontrollierter Interaktion mit dem Betriebssystem, bei dem jede Anwendungsinstanz und alle ihre Hauptkomponenten virtualisiert werden: Dateien (einschließlich Systemkomponenten), Registrierung, Schriftarten, INI-Dateien, COM-Objekte , Dienste (Abb. 4 ). Die Anwendung wird ohne den Installationsvorgang im herkömmlichen Sinne ausgeführt und kann direkt von externen Medien (z. B. von Flash-Karten oder von Netzwerkordnern) gestartet werden. Aus IT-Sicht hat dieser Ansatz klare Vorteile: schnellere Bereitstellung und Verwaltung von Desktops, Minimierung nicht nur von Konflikten zwischen Anwendungen, sondern auch der Notwendigkeit von Anwendungskompatibilitätstests. Tatsächlich wird diese Art der Virtualisierung in Sun Java Virtual Machine, Microsoft Application Virtualization (früher Softgrid genannt), Thinstall (wurde Anfang 2008 Teil von VMware) und Symantec/Altiris verwendet.

Fragen zur Auswahl einer Virtualisierungslösung

Zu sagen „Produkt A ist eine Software-Virtualisierungslösung“ reicht nicht aus, um die wirklichen Möglichkeiten von „A“ zu verstehen. Dazu müssen Sie sich die verschiedenen Eigenschaften der angebotenen Produkte genauer ansehen.

Der erste betrifft die Unterstützung verschiedener Betriebssysteme als Host- und Gastsysteme sowie die Sicherstellung der Funktionsfähigkeit von Anwendungen in virtuellen Umgebungen. Bei der Auswahl eines Virtualisierungsprodukts muss der Kunde auch eine Vielzahl technischer Merkmale berücksichtigen: die Höhe des Verlusts an Anwendungsleistung durch das Aufkommen einer neuen Betriebsschicht, den Bedarf an zusätzlichen Rechenressourcen für den Betrieb von der Virtualisierungsmechanismus und die Palette der unterstützten Peripheriegeräte.

Neben der Schaffung von Mechanismen zur Ausführung virtueller Umgebungen rücken heute Aufgaben des Systemmanagements in den Vordergrund: Umwandlung physischer in virtuelle Umgebungen und umgekehrt, Wiederherstellung des Systems im Fehlerfall, Übertragung virtueller Umgebungen von einem Rechner auf einen anderen, Deployment und Administration Software, Gewährleistung der Sicherheit usw.

Und schließlich sind die Kostenkennzahlen der eingesetzten Virtualisierungsinfrastruktur wichtig. Dabei ist zu bedenken, dass es hier in der Kostenstruktur vielleicht nicht vor allem um den Preis der Virtualisierungstools selbst geht, sondern um die Möglichkeit, beim Kauf von Lizenzen für Basis-OS oder Business-Applikationen zu sparen.

Die Hauptakteure auf dem x86-Virtualisierungsmarkt

Der Markt für Virtualisierungstools begann vor weniger als zehn Jahren Gestalt anzunehmen und hat heute ganz konkrete Umrisse angenommen.

VMware wurde 1998 gegründet und ist einer der Pioniere beim Einsatz von Virtualisierungstechnologien für x86-Computer und nimmt heute eine führende Position in diesem Markt ein (nach einigen Schätzungen beträgt sein Anteil 70-80%). Seit 2004 ist es eine Tochtergesellschaft der ECM Corporation, agiert aber eigenständig unter eigener Marke am Markt. Laut EMC wuchs die Belegschaft von VMware in dieser Zeit von 300 auf 3000 Personen, und das Umsatzvolumen verdoppelte sich jährlich. Offiziellen Zahlen zufolge nähert sich das Unternehmen nun einem Jahresumsatz von 1,5 Milliarden US-Dollar (aus dem Verkauf von Virtualisierungsprodukten und damit verbundenen Dienstleistungen) Diese Daten spiegeln gut die allgemeine Zunahme der Marktnachfrage nach Virtualisierungstools wider.

Heute bietet WMware eine umfassende Virtualisierungsplattform der dritten Generation, VMware Virtual Infrastructure 3, die Tools sowohl für einen einzelnen PC als auch für ein Rechenzentrum umfasst. Die Schlüsselkomponente dieser Software-Suite ist der VMware ESX Server-Hypervisor. Unternehmen können auch den kostenlosen VMware Virtual Server nutzen, der für Pilotprojekte zur Verfügung steht.

Parallels ist der neue (seit Januar 2008) Name von SWsoft, das ebenfalls ein Veteran auf dem Markt für Virtualisierungstechnologie ist. Sein Flaggschiffprodukt ist Parallels Virtuozzo Containers, eine Virtualisierungslösung auf Betriebssystemebene, mit der Sie viele isolierte Container (virtuelle Server) auf einem einzigen Windows- oder Linux-Server ausführen können. Zur Automatisierung der Geschäftsprozesse von Hosting-Providern wird das Parallels Plesk Control Panel angeboten. In den letzten Jahren hat das Unternehmen aktiv die Reihe von Desktop-Virtualisierungstools entwickelt - Parallels Workstation (für Windows und Linux) und Parallels Desktop für Mac (für Mac OS auf x86-Computern). 2008 kündigte sie die Veröffentlichung eines neuen Produkts an – Parallels Server, das den Servermechanismus virtueller Maschinen mit verschiedenen Betriebssystemen (Windows, Linux, Mac OS) unterstützt.

Microsoft trat 2003 mit der Übernahme von Connectix in den Virtualisierungsmarkt ein und veröffentlichte sein erstes Virtual PC-Produkt für Desktop-PCs. Seitdem hat sie das Angebot in diesem Bereich konsequent ausgebaut und heute den Aufbau einer Virtualisierungsplattform, die folgende Komponenten umfasst, nahezu abgeschlossen. ·

  • Servervirtualisierung. Es bietet zwei unterschiedliche Technologieansätze: die Verwendung von Microsoft Virtual Server 2005 und der neuen Hyper-V Server-Lösung (derzeit in der Beta-Phase). ·
  • Virtualisierung für PC. Durchgeführt mit dem kostenlosen Produkt Microsoft Vitrual PC 2007. ·
  • Anwendungsvirtualisierung. Für solche Aufgaben wird das Microsoft SoftGrid Application Virtualization System (früher SoftGrid genannt) vorgeschlagen. ·
  • Präsentationsvirtualisierung. Es wird mithilfe von Microsoft Windows Server Terminal Services implementiert und ist im Allgemeinen ein bekannter Terminalzugriffsmodus. ·
  • Integrierte Verwaltung virtueller Systeme. Bei der Lösung dieser Probleme kommt dem System Center Virtual Machine Manager, der Ende letzten Jahres veröffentlicht wurde, eine Schlüsselrolle zu.

Sun Microsystems bietet eine Reihe von Technologien auf mehreren Ebenen an: herkömmliche Betriebssysteme, Ressourcenverwaltung, Betriebssystemvirtualisierung, virtuelle Maschinen und Domänen auf Hardwareebene (Festpartitionen). Diese Sequenz basiert auf dem Prinzip, den Grad der Anwendungsisolation zu erhöhen (aber gleichzeitig die Flexibilität der Lösung zu verringern). Alle Virtualisierungstechnologien von Sun sind im Betriebssystem Solaris implementiert. Hardwareseitig gibt es überall Unterstützung für die x64-Architektur, wobei UltraSPARC-basierte Systeme zunächst besser auf diese Technologien abgestimmt sind. Auch andere Betriebssysteme können als virtuelle Maschinen verwendet werden, darunter Windows und Linux.

Die Citrix Systems Corporation ist ein anerkannter Marktführer für Remote Application Access-Infrastrukturen. Das Unternehmen stärkte seine Position im Bereich der Virtualisierungstechnologien erheblich und kaufte 2007 XenSource, den Entwickler von Xen, einer der führenden Virtualisierungstechnologien für Betriebssysteme, für 500 Millionen US-Dollar. Kurz vor diesem Deal stellte XenSource eine neue Version seines Flaggschiffprodukts XenEnterprise vor, das auf dem Kern von Xen 4, Sun, Red Hat und Novell basiert. Eine gewisse Unklarheit in der Position von Citrix bei der zukünftigen Förderung von Xen, einschließlich des Marketingplans, bleibt bis heute bestehen. Die Veröffentlichung des ersten auf Xen-Technologie basierenden Produkts des Unternehmens, Citrix XenDesktop (zur PC-Virtualisierung), ist für das erste Halbjahr 2008 geplant. Dann soll eine aktualisierte Version von XenServer vorgestellt werden.

Im November 2007 kündigte Oracle seinen Einstieg in den Virtualisierungsmarkt an und präsentierte eine Software namens Oracle VM zur Virtualisierung von Serveranwendungen dieses Unternehmens und anderer Hersteller. Die neue Lösung umfasst eine Open-Source-Server-Softwarekomponente und eine integrierte browserbasierte Verwaltungskonsole zum Erstellen und Verwalten virtueller Serverpools, die auf x86- und x86-64-Systemen ausgeführt werden. Experten sahen darin die mangelnde Bereitschaft von Oracle, Benutzer zu unterstützen, die seine Produkte in virtuellen Umgebungen von Drittanbietern ausführen. Es ist bekannt, dass die Oracle-VM-Lösung auf Basis des Xen-Hypervisors implementiert wird. Der Schritt von Oracle ist insofern einzigartig, als es das erste Mal in der Geschichte der Computervirtualisierung zu sein scheint, dass die Technologie tatsächlich nicht auf die Betriebsumgebung, sondern auf bestimmte Anwendungen zugeschnitten ist.

Der Virtualisierungsmarkt durch die Augen von IDC

Der Markt für x86-Architektur-Virtualisierung befindet sich in einer rasanten Entwicklungsphase, und seine Struktur ist noch nicht festgelegt. Dies erschwert die Bewertung der absoluten Leistung und die vergleichende Analyse der hier vorgestellten Produkte. Diese These wird durch den im November letzten Jahres veröffentlichten IDC-Bericht „Enterprise Virtualization Software: Customer Needs and Strategies“ bestätigt. Von größtem Interesse in diesem Dokument ist die Strukturierung von Servervirtualisierungssoftware, in der IDC vier Hauptkomponenten identifiziert (Abb. 5).

Virtualisierungsplattform. Es basiert auf dem Hypervisor sowie den grundlegenden Ressourcensteuerungen und der An(API). Die wichtigsten Merkmale sind die Anzahl der Sockets und die Anzahl der Prozessoren, die von einer virtuellen Maschine unterstützt werden, die Anzahl der unter einer Lizenz verfügbaren Gastsysteme und die Bandbreite der unterstützten Betriebssysteme.

Verwaltung virtueller Maschinen. Beinhaltet Verwaltungstools für Hostsoftware und virtuelle Server. Die auffälligsten Unterschiede in den Angeboten der Anbieter liegen heute sowohl in der Funktionszusammenstellung als auch in der Skalierung. IDC ist jedoch zuversichtlich, dass sich die Fähigkeiten der Tools der führenden Anbieter schnell einpendeln werden und die physische und virtuelle Serververwaltung über eine einzige Schnittstelle erfolgen wird.

Infrastruktur virtueller Maschinen. Eine breite Palette zusätzlicher Tools, die Aufgaben wie Softwaremigration, automatischer Neustart, Lastausgleich für virtuelle Maschinen usw. ausführen. Laut IDC sind es die Fähigkeiten dieser Software, die die Auswahl der Lieferanten durch die Kunden entscheidend beeinflussen werden, und das ist es auch auf der Ebene dieser Tools, dass der Kampf zwischen den Anbietern ausgetragen wird.

Virtualisierungslösungen. Eine Reihe von Produkten, mit denen Sie die oben genannten Kerntechnologien mit bestimmten Arten von Anwendungen und Geschäftsprozessen verknüpfen können.

Im Sinne einer allgemeinen Analyse der Marktsituation identifiziert IDC drei Teilnehmerlager. Die erste Kluft besteht zwischen denen, die auf der obersten Betriebssystemebene (SWsoft und Sun) virtualisieren, und denen auf der untersten Betriebssystemebene (VMware, XenSource, Virtual Iron, Red Hat, Microsoft, Novell). Mit der ersten Option können Sie die effizientesten Lösungen in Bezug auf Leistung und zusätzliche Ressourcenkosten erstellen, aber nur homogene Computerumgebungen implementieren. Die zweite ermöglicht es, mehrere Betriebssysteme unterschiedlichen Typs auf einem Rechner zu betreiben. Innerhalb der zweiten Gruppe zieht IDC eine weitere Linie zwischen Anbietern eigenständiger Virtualisierungsprodukte (VMware, XenSource, Virtual Iron) und Betriebssystemanbietern, die Virtualisierungstools enthalten (Microsoft, Red Hat, Novell).

Aus unserer Sicht ist die von IDC vorgeschlagene Marktstrukturierung nicht sehr genau. Erstens unterscheidet IDC aus irgendeinem Grund nicht zwischen zwei grundlegend unterschiedlichen Arten von virtuellen Maschinen – die ein Host-Betriebssystem (VMware, Virtual Iron, Microsoft) und einen Hypervisor (VMware, XenSource, Red Hat, Microsoft, Novell) verwenden. Zweitens, wenn wir über den Hypervisor sprechen, dann ist es sinnvoll, zwischen denen zu unterscheiden, die ihre eigenen zugrunde liegenden Technologien verwenden (VMware, XenSource, Virtual Iron, Microsoft) und denen, die andere lizenzieren (Red Hat, Novell). Und schließlich muss gesagt werden, dass SWsoft und Sun nicht nur Virtualisierungstechnologien auf Betriebssystemebene, sondern auch Tools zur Unterstützung virtueller Maschinen in ihrem Arsenal haben.

Anmerkung: Die Informationstechnologie hat viele nützliche und interessante Dinge in das Leben der modernen Gesellschaft gebracht. Jeden Tag erfinden erfinderische und talentierte Menschen immer mehr Verwendungsmöglichkeiten für Computer als effiziente Werkzeuge für Produktion, Unterhaltung und Zusammenarbeit. Viele verschiedene Soft- und Hardware, Technologien und Dienstleistungen ermöglichen es uns, den Komfort und die Geschwindigkeit der täglichen Arbeit mit Informationen zu verbessern. Es wird immer schwieriger, wirklich nützliche Technologien aus dem Strom der Technologien, der auf uns hereinbricht, herauszugreifen und zu lernen, wie man sie mit maximalem Nutzen nutzt. In diesem Vortrag wird eine weitere unglaublich vielversprechende und wirklich effektive Technologie diskutiert, die schnell in die Welt der Computer eindringt – die Virtualisierungstechnologie, die eine Schlüsselposition im Konzept des „Cloud“-Computing einnimmt.

Ziel dieser Vorlesung ist es, Informationen über Virtualisierungstechnologien, Terminologie, Varianten und Hauptvorteile der Virtualisierung zu erhalten. Machen Sie sich mit den wichtigsten Lösungen führender IT-Anbieter vertraut. Betrachten Sie die Funktionen der Microsoft-Virtualisierungsplattform.

Virtualisierungstechnologien

Laut Statistik liegt die durchschnittliche Prozessorauslastung bei Servern unter Windows bei nicht mehr als 10 %, bei Unix-Systemen ist dieser Wert besser, überschreitet aber im Schnitt dennoch nicht 20 %. Die geringe Effizienz der Serverauslastung erklärt sich durch den seit Anfang der 90er Jahre weit verbreiteten „One Application – One Server“-Ansatz, also jedes Mal, wenn ein Unternehmen einen neuen Server anschafft, um eine neue Anwendung einzusetzen. In der Praxis bedeutet dies natürlich eine schnelle Zunahme des Serverparks und folglich eine Erhöhung der Kosten dafür. Verwaltung, Energieverbrauch und Kühlung sowie der Bedarf an zusätzlichem Platz, um immer mehr Server zu installieren und Lizenzen für das Server-Betriebssystem zu erwerben.

Durch die Virtualisierung physikalischer Server-Ressourcen können Sie diese flexibel auf Anwendungen verteilen, die jeweils nur die für sie vorgesehenen Ressourcen „sehen“ und „denken“, dass ihr ein eigener Server zugeordnet ist, also in diesem Fall „ein Server – mehrere“. -Applications"-Ansatz implementiert, ohne jedoch die Leistung, Verfügbarkeit und Sicherheit von Serveranwendungen zu beeinträchtigen. Darüber hinaus ermöglichen Virtualisierungslösungen die Ausführung verschiedener Betriebssysteme in Partitionen, indem deren Systemaufrufe an Serverhardwareressourcen emuliert werden.


Reis. 2.1.

Virtualisierung basiert auf der Fähigkeit eines Computers, die Arbeit mehrerer Computer zu erledigen, indem seine Ressourcen auf mehrere Umgebungen verteilt werden. Mit virtuellen Servern und virtuellen Desktops können Sie mehrere Betriebssysteme und mehrere Anwendungen an einem einzigen Standort hosten. Physische und geografische Beschränkungen verlieren somit jegliche Bedeutung. Neben Energieeinsparungen und Kostensenkungen durch effizientere Nutzung von Hardwareressourcen bietet die virtuelle Infrastruktur eine hohe Ressourcenverfügbarkeit, effizienteres Management, verbesserte Sicherheit und verbesserte Notfallwiederherstellung.

Im weitesten Sinne ist das Konzept der Virtualisierung das Verbergen der realen Implementierung eines Prozesses oder Objekts vor seiner wahren Repräsentation für denjenigen, der es verwendet. Ein Produkt der Virtualisierung ist etwas, das einfach zu bedienen ist, tatsächlich aber eine komplexere oder völlig andere Struktur hat als die, die man bei der Arbeit mit einem Objekt wahrnimmt. Mit anderen Worten, es gibt eine Trennung der Repräsentation von der Implementierung von etwas. Virtualisierung soll abstrahieren Software von der Hardware.

In der Computertechnologie bezieht sich der Begriff "Virtualisierung" normalerweise auf die Abstraktion von Rechenressourcen und die Bereitstellung eines Systems für den Benutzer, das seine eigene Implementierung "einkapselt" (in sich selbst versteckt).. Einfach gesagt, der Benutzer arbeitet mit einer bequemen Darstellung des Objekts, und es spielt für ihn keine Rolle, wie das Objekt tatsächlich funktioniert.

Die Möglichkeit, mehrere virtuelle Maschinen auf einer einzigen physischen Maschine auszuführen, stößt derzeit auf großes Interesse bei Computerfachleuten, nicht nur, weil sie die Flexibilität der IT-Infrastruktur erhöht, sondern auch, weil Virtualisierung tatsächlich Geld spart.

Die Geschichte der Entwicklung von Virtualisierungstechnologien hat mehr als vierzig Jahre. IBM war der erste, der darüber nachdachte, virtuelle Umgebungen für verschiedene Benutzeraufgaben zu schaffen, dann zurück in Mainframes. In den 60er Jahren des letzten Jahrhunderts war die Virtualisierung von rein wissenschaftlichem Interesse und eine originelle Lösung zur Isolierung von Computersystemen innerhalb eines einzigen physischen Computers. Nach dem Aufkommen von Personal Computern schwächte sich das Interesse an Virtualisierung aufgrund der rasanten Entwicklung von Betriebssystemen, die angemessene Anforderungen an die damalige Hardware stellten, etwas ab. Das schnelle Wachstum von Computerhardware in den späten 1990er Jahren zwang die IT-Community jedoch dazu, über Virtualisierungstechnologien für Softwareplattformen nachzudenken.

1999 führte VMware die x86-basierte Sals leistungsstarkes Tool ein, das x86-basierte Systeme in eine einzige, universelle Hardwareinfrastruktur umwandeln kann, die vollständige Isolierung, Mobilität und eine große Auswahl an Betriebssystemen für Anwendungsumgebungen bietet. VMware war eines der ersten Unternehmen, das ernsthaft ausschließlich auf Virtualisierung gesetzt hat. Wie die Zeit gezeigt hat, hat es sich als absolut gerechtfertigt herausgestellt. Heute bietet WMware eine umfassende Virtualisierungsplattform der vierten Generation, VMware vSphere 4, die Tools sowohl für einen einzelnen PC als auch für ein Rechenzentrum umfasst. Die Schlüsselkomponente dieser Software-Suite ist der VMware ESX Server-Hypervisor. Später schlossen sich Unternehmen wie Parallels (ehemals SWsoft), Oracle (Sun Microsystems) und Citrix Systems (XenSourse) dem „Kampf“ um einen Platz in dieser modischen Richtung der Inan.

Microsoft trat 2003 mit der Übernahme von Connectix in den Virtualisierungsmarkt ein und veröffentlichte sein erstes Virtual PC-Produkt für Desktop-PCs. Seitdem hat sie das Angebot in diesem Bereich konsequent ausgebaut und heute den Aufbau einer Virtualisierungsplattform nahezu abgeschlossen, zu der unter anderem Lösungen wie Windows 2008 Server R2 mit der Hyper-V-Komponente, Microsoft Application Virtualization (App-v) gehören. , Microsoft Virtual Desktop Infrastructure (VDI), Remotedesktopdienste, System Center Virtual Machine Manager.

Heute bieten Anbieter von Virtualisierungstechnologien zuverlässige und einfach zu verwaltende Plattformen an, und der Markt für diese Technologien boomt. Laut führenden Experten ist die Virtualisierung heute eine der drei vielversprechendsten Computertechnologien. Viele Experten sagen voraus, dass bis 2015 etwa die Hälfte aller Computersysteme virtuell sein werden.

Das derzeit gestiegene Interesse an Virtualisierungstechnologien ist kein Zufall. Die Rechenleistung aktueller Prozessoren wächst rasant, und die Frage ist nicht einmal, wofür man diese Leistung ausgeben soll, sondern dass die moderne „Mode“ für Dual-Core- und Multi-Core-Systeme, die bereits in Personal Computer (Laptops u Desktops), ermöglicht es Ihnen am besten, das reichste Potenzial der Ideen der Virtualisierung von Betriebssystemen und Anwendungen zu realisieren und den Komfort der Computernutzung auf ein neues qualitatives Niveau zu bringen. Virtualisierungstechnologien werden zu einer der Schlüsselkomponenten (einschließlich Marketingkomponenten) in den neuesten und zukünftigen Prozessoren von Intel und AMD, in Betriebssystemen von Microsoft und einer Reihe anderer Unternehmen.

Vorteile der Virtualisierung

Hier sind die Hauptvorteile von Virtualisierungstechnologien:

  1. Effiziente Nutzung von Rechenressourcen. Anstelle von 3 oder sogar 10 Servern, die zu 5-20 % ausgelastet sind, können Sie einen verwenden, der zu 50-70 % ausgelastet ist. Es spart unter anderem auch Strom, sowie eine deutliche Reduzierung der finanziellen Investitionen: Es wird ein Hightech-Server angeschafft, der die Funktionen von 5-10 Servern übernimmt. Mit der Virtualisierung können Sie eine deutlich effizientere Ressourcennutzung erreichen, da sie standardmäßige Infrastrukturressourcen in einem einzigen Pool zusammenfasst und die Einschränkungen des Legacy-Modells „eine Anwendung pro Server“ überwindet.
  2. Senkung der Infrastrukturkosten: Virtualisierung reduziert die Anzahl der Server und der zugehörigen IT-Ausrüstung im Rechenzentrum. Dadurch wird der Bedarf an Wartung, Stromversorgung und Kühlung materieller Ressourcen reduziert und deutlich weniger Geld für die IT ausgegeben.
  3. Senkung der Softwarekosten. Einige Softwareanbieter haben separate Lizenzierungsschemata speziell für virtuelle Umgebungen eingeführt. Wenn Sie beispielsweise eine Lizenz für Microsoft Windows Server 2008 Enterprise kaufen, erhalten Sie das Recht, diese gleichzeitig auf 1 physischen und 4 virtuellen Servern (innerhalb eines Servers) zu verwenden, während Windows Server 2008 Datacenter nur für die Anzahl von lizenziert wird Prozessoren und können gleichzeitig auf einer unbegrenzten Anzahl von Prozessoren verwendet werden die Anzahl virtueller Server.
  4. Erhöhen Sie die Flexibilität und Reaktionsfähigkeit des Systems: Virtualisierung bietet eine neue Möglichkeit zur Verwaltung der IT-Infrastruktur und hilft IT-Administratoren, weniger Zeit mit sich wiederholenden Aufgaben wie dem Initiieren, Konfigurieren, Überwachen und Warten zu verbringen. Viele Systemadministratoren haben Probleme erlebt, wenn ein Server abstürzt. Und Sie können nicht, nachdem Sie die Festplatte herausgezogen haben, sie auf einen anderen Server verschoben haben, alles wie zuvor starten ... Und die Installation? Treiber suchen, einrichten, starten ... und alles kostet Zeit und Ressourcen. Wenn Sie einen virtuellen Server verwenden, kann er sofort auf jeder Hardware gestartet werden, und wenn es keinen solchen Server gibt, können Sie eine fertige virtuelle Maschine mit einem installierten und konfigurierten Server aus Bibliotheken herunterladen, die von Unternehmen unterstützt werden, die Hypervisoren (Virtualisierungsprogramme) entwickeln ).
  5. Inkompatible Anwendungen können auf demselben Computer ausgeführt werden. Bei Virtualisierung auf einem Server ist es möglich, Linux- und Windows-Server, Gateways, Datenbanken und andere absolut inkompatible Anwendungen innerhalb eines nicht virtualisierten Systems zu installieren.
  6. Erhöhen Sie die Anwendungsverfügbarkeit und stellen Sie die Geschäftskontinuität sicher: Mit zuverlässiger Sicherung und unterbrechungsfreier Migration ganzer virtueller Umgebungen können Sie geplante Ausfallzeiten reduzieren und in kritischen Situationen eine schnelle Systemwiederherstellung sicherstellen. Der „Fall“ eines virtuellen Servers führt nicht zum Verlust anderer virtueller Server. Darüber hinaus besteht die Möglichkeit, bei Ausfall eines physikalischen Servers diesen automatisch durch einen Backup-Server zu ersetzen. Und dies geschieht für Benutzer ohne Neustart nicht merklich. Dies gewährleistet die Geschäftskontinuität.
  7. Einfache Archivierungsfunktionen. Da die Festplatte einer virtuellen Maschine normalerweise als Datei eines bestimmten Formats dargestellt wird, die sich auf einem physischen Medium befindet, ermöglicht die Virtualisierung das einfache Kopieren dieser Datei auf Sicherungsmedien, um die gesamte virtuelle Maschine zu archivieren und zu sichern. Die Möglichkeit, den gesamten Server zu entpacken, ist ein weiteres großartiges Feature. Und Sie können den Server aus dem Archiv heben, ohne den aktuellen Server zu zerstören, und den Stand der Dinge im vergangenen Zeitraum sehen.
  8. Verbesserung der Verwaltbarkeit der Infrastruktur: Die Verwendung der zentralisierten Verwaltung der virtuellen Infrastruktur ermöglicht es Ihnen, die Zeit für die Serververwaltung zu reduzieren, bietet Lastausgleich und "Live"-Migration von virtuellen Maschinen.

virtuelle Maschine wir werden eine Software- oder Hardwareumgebung nennen, die die reale Implementierung eines Prozesses oder Objekts vor seiner sichtbaren Darstellung verbirgt.

ist ein vollständig isolierter Software-Container, der wie ein physischer Computer sein eigenes Betriebssystem und seine eigenen Anwendungen ausführt. Eine virtuelle Maschine verhält sich wie ein physischer Computer und enthält ihren eigenen virtuellen (d. h. Software-) RAM, Festplatte und Netzwerkadapter.

Das Betriebssystem kann nicht zwischen virtuellen und physischen Maschinen unterscheiden. Dasselbe gilt für Anwendungen und andere Computer im Netzwerk. Sogar sie selbst virtuelle Maschine hält sich für einen "echten" Computer. Trotzdem bestehen virtuelle Maschinen ausschließlich aus Softwarekomponenten und enthalten keine Hardware. Dies gibt ihnen eine Reihe einzigartiger Vorteile gegenüber physischer Hardware.


Reis. 2.2.

Betrachten Sie die Hauptmerkmale virtueller Maschinen genauer:

  1. Kompatibilität. Virtuelle Maschinen sind grundsätzlich mit allen gängigen Computern kompatibel. Wie ein physischer Computer führt eine virtuelle Maschine ihr eigenes Gastbetriebssystem und ihre eigenen Anwendungen aus. Es enthält auch alle Komponenten, die für einen physischen Computer Standard sind (Motherboard, Grafikkarte, Netzwerkcontroller usw.). Daher sind virtuelle Maschinen vollständig kompatibel mit allen gängigen Betriebssystemen, Anwendungen und Gerätetreibern. Eine virtuelle Maschine kann verwendet werden, um jede Software auszuführen, die für den entsprechenden physischen Computer geeignet ist.
  2. Isolation. Virtuelle Maschinen sind vollständig voneinander isoliert, als wären sie physische Computer Virtuelle Maschinen können die physischen Ressourcen eines einzelnen Computers gemeinsam nutzen und bleiben dennoch vollständig voneinander isoliert, als wären sie separate physische Maschinen. Wenn beispielsweise vier virtuelle Maschinen auf einem physischen Server ausgeführt werden und eine davon ausfällt, wird die Verfügbarkeit der verbleibenden drei Maschinen nicht beeinträchtigt. Isolation ist ein wichtiger Grund für die viel höhere Verfügbarkeit und Sicherheit von Anwendungen, die in einer virtuellen Umgebung ausgeführt werden, im Vergleich zu Anwendungen, die in einem standardmäßigen, nicht virtualisierten System ausgeführt werden.
  3. Verkapselung. Virtuelle Maschinen kapseln die Computerumgebung vollständig ein. Eine virtuelle Maschine ist ein Softwarecontainer, der einen vollständigen Satz virtueller Hardwareressourcen sowie ein Betriebssystem und alle seine Anwendungen in einem Softwarepaket bündelt oder „einkapselt“. Die Kapselung macht virtuelle Maschinen unglaublich mobil und einfach zu verwalten. Beispielsweise kann eine virtuelle Maschine genau wie jede andere Programmdatei von einem Ort an einen anderen verschoben oder kopiert werden. Darüber hinaus kann eine virtuelle Maschine auf jedem gängigen Speichermedium gespeichert werden, vom kompakten USB-Stick bis hin zu Unternehmensspeichernetzwerken.
  4. Geräteunabhängigkeit. Virtuelle Maschinen sind völlig unabhängig von der zugrunde liegenden physischen Hardware, auf der sie ausgeführt werden. Beispielsweise können Sie für eine virtuelle Maschine mit virtuellen Komponenten (CPU, Netzwerkkarte, SCSI-Controller) Einstellungen festlegen, die sich vollständig von den physischen Eigenschaften der zugrunde liegenden Hardware unterscheiden. Virtuelle Maschinen können sogar verschiedene Betriebssysteme (Windows, Linux usw.) auf demselben physischen Server ausführen. In Kombination mit Kapselungs- und Kompatibilitätseigenschaften bietet die Hardwareunabhängigkeit die Möglichkeit, virtuelle Maschinen frei von einem x86-basierten Computer auf einen anderen zu verschieben, ohne Gerätetreiber, Betriebssysteme oder Anwendungen zu ändern. Die Hardwareunabhängigkeit ermöglicht es auch, völlig unterschiedliche Betriebssysteme und Anwendungen in Kombination auf demselben physischen Computer auszuführen.

Betrachten Sie die wichtigsten Arten der Virtualisierung, wie z. B.:

  • Servervirtualisierung (Vollvirtualisierung und Paravirtualisierung)
  • Virtualisierung auf Betriebssystemebene,
  • Anwendungsvirtualisierung,
  • Virtualisierung ansehen.

Nur die Faulen haben heute noch nichts von Virtualisierung gehört. Es kann ohne Übertreibung gesagt werden, dass es heute einer der Haupttrends in der Entwicklung der IT ist. Viele Administratoren haben jedoch noch ein sehr bruchstückhaftes und fragmentiertes Wissen zu diesem Thema und glauben fälschlicherweise, dass Virtualisierung nur großen Unternehmen zur Verfügung steht. Angesichts der Relevanz des Themas haben wir uns entschlossen, einen neuen Abschnitt zu erstellen und eine Artikelserie zum Thema Virtualisierung zu starten.

Was ist Virtualisierung?

Virtualisierung ist heute ein sehr breites und vielfältiges Konzept, aber wir werden heute nicht alle Aspekte betrachten, dies würde den Rahmen dieses Artikels bei weitem sprengen. Für diejenigen, die sich gerade erst mit dieser Technologie vertraut machen, ist ein vereinfachtes Modell völlig ausreichend, daher haben wir versucht, dieses Material so weit wie möglich zu vereinfachen und zu verallgemeinern, ohne auf Details der Implementierung auf einer bestimmten Plattform einzugehen.

Was ist Virtualisierung? Dies ist eine Gelegenheit, mehrere virtuelle Maschinen isoliert voneinander auf einem physischen Computer auszuführen, von denen jede „denkt“, dass sie auf einem separaten physischen PC ausgeführt wird. Betrachten Sie das folgende Diagramm:

Zusätzlich zur echten Hardware wird spezielle Software gestartet - Hypervisor(oder Virtual Machine Monitor), der die Emulation virtueller Hardware und die Interaktion virtueller Maschinen mit realer Hardware ermöglicht. Es ist auch verantwortlich für die Kommunikation virtueller PCs mit der realen Umgebung über das Netzwerk, freigegebene Ordner, freigegebene Zwischenablage usw.

Der Hypervisor kann sowohl direkt auf der Hardware als auch auf Betriebssystemebene laufen, es gibt auch hybride Implementierungen, die in einer Minimalkonfiguration auf einem speziell konfigurierten Betriebssystem laufen.

Mit Hilfe des Hypervisors werden virtuelle Maschinen erstellt, für die das minimal notwendige Set an virtueller Hardware emuliert wird und Zugriff auf die gemeinsam genutzten Ressourcen des Haupt-PCs, genannt " Gastgeber". Jede virtuelle Maschine enthält wie ein normaler PC eine eigene Kopie des Betriebssystems und der Anwendungssoftware, und die anschließende Interaktion mit ihnen unterscheidet sich nicht von der Arbeit mit einem normalen PC oder Server.

Wie ist eine virtuelle Maschine aufgebaut?

Trotz der offensichtlichen Komplexität ist eine virtuelle Maschine (VM) nur ein Ordner mit Dateien, deren Satz und Anzahl je nach spezifischer Implementierung variieren können, aber jede VM basiert auf dem gleichen Mindestsatz von Dateien, der Rest ist vorhanden nicht kritisch.

Die wichtigste ist die virtuelle Festplattendatei, deren Verlust dem Ausfall der Festplatte eines herkömmlichen PCs gleichkommt. Die zweitwichtigste ist die VM-Konfigurationsdatei, die eine Beschreibung der Hardware der virtuellen Maschine und der ihr zugewiesenen freigegebenen Host-Ressourcen enthält. Zu solchen Ressourcen gehört beispielsweise virtueller Speicher, der ein dedizierter Bereich des gemeinsam genutzten Speichers des Hosts ist.

Im Prinzip ist der Verlust der Konfigurationsdatei unkritisch, da Sie nur eine virtuelle HDD-Datei zur Verfügung haben, können Sie die virtuelle Maschine starten, indem Sie ihre Konfiguration neu erstellen. So wie Sie nur eine Festplatte haben, können Sie sie an einen anderen PC mit derselben Konfiguration anschließen und erhalten eine voll funktionsfähige Maschine.

Darüber hinaus kann der Ordner in der virtuellen Maschine andere Dateien enthalten, die jedoch nicht kritisch sind, obwohl ihr Verlust ebenfalls unerwünscht sein kann (z. B. Snapshots, mit denen Sie den Status des virtuellen PCs zurücksetzen können).

Vorteile der Virtualisierung

Je nach Einsatzzweck werden Desktop- und Server-Virtualisierung unterteilt. Die erste wird hauptsächlich für Bildungs- und Testzwecke verwendet. Um nun irgendeine Art von Technologie zu studieren oder die Einführung eines beliebigen Dienstes in ein Unternehmensnetzwerk zu testen, benötigen Sie lediglich einen ziemlich leistungsfähigen PC und ein Desktop-Virtualisierungstool. Die Anzahl der virtuellen Maschinen, die Sie in Ihrem virtuellen Labor haben können, ist nur durch die Größe der Festplatte begrenzt, die Anzahl der gleichzeitig laufenden Maschinen ist hauptsächlich durch die Menge an verfügbarem RAM begrenzt.

In der Abbildung unten wird im Fenster des Desktop-Virtualisierungstools aus unserem Testlabor Windows 8 ausgeführt.

Die Servervisualisierung ist in IT-Infrastrukturen aller Ebenen weit verbreitet und ermöglicht die Verwendung eines physischen Servers zum Ausführen mehrerer virtueller Server. Die Vorteile dieser Technologie liegen auf der Hand:

Optimale Nutzung der Rechenressourcen

Es ist kein Geheimnis, dass die Rechenleistung selbst von Einstiegsservern und gerade mittleren PCs für viele Aufgaben und Serverrollen überflüssig ist und nicht vollständig genutzt wird. Dies wird normalerweise durch Hinzufügen zusätzlicher Serverrollen gelöst, aber dieser Ansatz verkompliziert die Serververwaltung erheblich und erhöht die Wahrscheinlichkeit von Ausfällen. Durch die Virtualisierung können Sie freie Rechenressourcen sicher nutzen, indem Sie jeder kritischen Rolle einen Server zuweisen. Um beispielsweise Wartungsarbeiten an einem Webserver durchzuführen, müssen Sie den Datenbankserver nicht mehr anhalten

Einsparung von physischen Ressourcen

Durch die Verwendung eines physischen Servers anstelle von mehreren können Sie effektiv Energie, Platz im Serverraum und die Kosten für die zugehörige Infrastruktur sparen. Dies ist besonders wichtig für kleinere Unternehmen, die die Mietkosten durch die Verringerung der physischen Größe der Geräte erheblich senken können, da beispielsweise kein gut belüfteter Serverraum mit Klimaanlage erforderlich ist.

Erhöhung der Skalierbarkeit und Erweiterbarkeit der Infrastruktur

Wenn das Unternehmen wächst, wird die Fähigkeit, die Rechenleistung des Unternehmens schnell und kostengünstig zu erhöhen, immer wichtiger. Typischerweise beinhaltet diese Situation den Austausch von Servern durch leistungsstärkere, gefolgt von der Migration von Rollen und Diensten von alten Servern auf neue. Ohne Ausfälle, Ausfallzeiten (auch geplante) und „Übergangszeiten“ aller Art ist eine solche Umstellung praktisch nicht durchführbar, was jede solche Erweiterung zu einem kleinen Notfall für das Unternehmen und die Administratoren macht, die oft nachts und nachts arbeiten müssen an Wochenenden.

Durch die Virtualisierung können Sie dieses Problem viel effizienter lösen. Wenn Sie über freie Host-Computing-Ressourcen verfügen, können Sie diese ganz einfach der gewünschten virtuellen Maschine hinzufügen, z. B. den verfügbaren Arbeitsspeicher erhöhen oder Prozessorkerne hinzufügen. Wenn es notwendig ist, die Leistung deutlich zu verbessern, wird ein neuer Host auf einem leistungsfähigeren Server erstellt, auf den eine virtuelle Maschine mit Ressourcenbedarf übertragen wird.

Die Ausfallzeit in dieser Situation ist sehr gering und beschränkt sich auf die Zeit, die zum Kopieren der VM-Dateien von einem Server auf einen anderen erforderlich ist. Darüber hinaus enthalten viele moderne Hypervisoren eine „Live-Migration“-Funktion, mit der Sie virtuelle Maschinen zwischen Hosts verschieben können, ohne sie herunterzufahren.

Erhöhung der Fehlertoleranz

Der physische Ausfall des Servers ist vielleicht einer der unangenehmsten Momente in der Arbeit eines Systemadministrators. Erschwerend kommt hinzu, dass die physische Instanz des Betriebssystems fast immer hardwareabhängig ist, was es unmöglich macht, das System schnell auf anderer Hardware auszuführen. Virtuelle Maschinen haben diesen Nachteil nicht, bei Ausfall des Host-Servers werden alle virtuellen Maschinen schnell und problemlos auf einen anderen, betriebsbereiten Server übertragen.

Unterschiede in der Hardware der Server spielen jedoch keine Rolle, man kann virtuelle Maschinen von einem Intel-basierten Server nehmen und wenige Minuten später erfolgreich auf einem neuen Host starten, der auf einer AMD-Plattform läuft.

Derselbe Umstand ermöglicht es Ihnen, Server vorübergehend zur Wartung herauszunehmen oder ihre Hardware zu ändern, ohne die darauf laufenden virtuellen Maschinen zu stoppen. Es reicht aus, sie vorübergehend auf einen anderen Host zu verschieben.

Fähigkeit zur Unterstützung älterer Betriebssysteme

Trotz des ständigen Fortschritts und der Veröffentlichung neuer Softwareversionen werden im Unternehmensbereich häufig weiterhin veraltete Softwareversionen verwendet, ein gutes Beispiel ist 1C:Enterprise 7.7. Durch die Virtualisierung können Sie solche Software ohne zusätzliche Kosten in eine moderne Infrastruktur integrieren, und sie kann auch nützlich sein, wenn ein alter PC mit einem veralteten Betriebssystem außer Betrieb ist und nicht auf moderner Hardware ausgeführt werden kann. Mit dem Hypervisor können Sie eine Reihe veralteter Hardware emulieren, um die Kompatibilität mit alten Betriebssystemen sicherzustellen, und spezielle Dienstprogramme ermöglichen Ihnen, ein physisches System ohne Datenverlust in eine virtuelle Umgebung zu übertragen.

Virtuelle Netzwerke

Ein moderner PC ohne Anbindung an irgendein Netzwerk ist kaum vorstellbar. Daher ermöglichen Ihnen moderne Virtualisierungstechnologien, nicht nur Computer, sondern auch Netzwerke zu virtualisieren. Wie ein normaler Computer kann eine virtuelle Maschine über einen oder mehrere Netzwerkadapter verfügen, die entweder mit einem externen Netzwerk, über eine der physischen Netzwerkschnittstellen des Hosts oder mit einem der virtuellen Netzwerke verbunden werden können. Ein virtuelles Netzwerk ist ein virtueller Netzwerkswitch, mit dem die Netzwerkadapter virtueller Maschinen verbunden sind. Bei Bedarf können in einem solchen Netzwerk unter Verwendung des Hypervisors DHCP- und NAT-Dienste implementiert werden, um über die Internetverbindung des Hosts auf das Internet zuzugreifen.

Die Fähigkeiten virtueller Netzwerke ermöglichen es Ihnen, auch innerhalb desselben Hosts recht komplexe Netzwerkkonfigurationen zu erstellen. Schauen wir uns beispielsweise das folgende Diagramm an:

Der Host ist über einen physischen Netzwerkadapter mit einem externen Netzwerk verbunden LAN0, ist die virtuelle VM5-Maschine über dieselbe physische Schnittstelle über einen Netzwerkadapter mit dem externen Netzwerk verbunden VM-LAN 0. Für die restlichen Maschinen im externen Netzwerk sind der Host und VM5 zwei verschiedene PCs, jeder von ihnen hat seine eigene Netzwerkadresse, seine eigene Netzwerkkarte mit seiner eigenen MAC-Adresse. Die zweite VM5-NIC ist mit dem virtuellen Switch des virtuellen Netzwerks verbunden VMNET1, sind auch die Netzwerkadapter der virtuellen Maschinen VM1-VM4 damit verbunden. Daher haben wir ein sicheres internes Netzwerk innerhalb eines physischen Hosts organisiert, der nur über den VM5-Router Zugriff auf das externe Netzwerk hat.

In der Praxis machen virtuelle Netzwerke es einfach, mehrere Netzwerke mit unterschiedlichen Sicherheitsstufen innerhalb eines einzigen physischen Servers zu organisieren, um beispielsweise potenziell unsichere Hosts ohne zusätzliche Kosten für Netzwerkausrüstung in die DMZ zu verschieben.

Schnappschüsse

Eine weitere Virtualisierungsfunktion, deren Nützlichkeit schwer zu überschätzen ist. Seine Essenz läuft darauf hinaus, dass Sie jederzeit, ohne den Betrieb der virtuellen Maschine anzuhalten, einen Schnappschuss ihres aktuellen Zustands und mehr als einen speichern können. Für einen unverdorbenen Administrator ist dies nur eine Art Urlaub, um einfach und schnell in den ursprünglichen Zustand zurückkehren zu können, wenn plötzlich etwas schief geht. Anders als das Erstellen eines Images einer Festplatte und das anschließende Wiederherstellen des Systems damit, was sehr viel Zeit in Anspruch nehmen kann, erfolgt der Wechsel zwischen den Snapshots innerhalb von Minuten.

Eine weitere Verwendung für Snapshots sind Bildungs- und Testzwecke. Sie können verwendet werden, um einen vollständigen Zustandsbaum einer virtuellen Maschine zu erstellen und schnell zwischen verschiedenen Konfigurationsoptionen zu wechseln. Die folgende Abbildung zeigt einen Bildbaum eines Routers aus unserem Testlabor, der Ihnen aus unseren Materialien bestens bekannt ist:

Fazit

Obwohl wir versucht haben, nur einen kurzen Überblick zu geben, ist der Artikel ziemlich umfangreich geworden. Gleichzeitig hoffen wir, dass Sie dank dieses Materials in der Lage sind, alle Möglichkeiten, die die Virtualisierungstechnologie bietet, wirklich zu schätzen und sinnvoll die Vorteile Ihrer IT-Infrastruktur zu präsentieren, mit dem Studium unserer neuen Materialien zu beginnen und die Virtualisierung praktisch in den Alltag einzuführen üben. .

In letzter Zeit haben viele verschiedene Unternehmen, die nicht nur im IT-Sektor, sondern auch in anderen Bereichen tätig sind, begonnen, sich ernsthaft mit Virtualisierungstechnologien zu befassen. Heimanwender haben auch die Zuverlässigkeit und den Komfort von Virtualisierungsplattformen erlebt, die es ihnen ermöglichen, mehrere Betriebssysteme gleichzeitig in virtuellen Maschinen auszuführen. Derzeit sind Virtualisierungstechnologien laut verschiedenen Forschern des Informationstechnologiemarktes eine der vielversprechendsten. Der Markt für Virtualisierungsplattformen und Verwaltungstools wächst derzeit stark, wobei regelmäßig neue Akteure darin auftauchen, sowie der Prozess der Absorption kleiner Unternehmen durch große Akteure, die an der Entwicklung von Software für Virtualisierungsplattformen und Tools zur Steigerung der Effizienz beteiligt sind die Nutzung virtueller Infrastrukturen.

Gleichzeitig sind viele Unternehmen noch nicht bereit, massiv in die Virtualisierung zu investieren, da sie die wirtschaftlichen Auswirkungen der Einführung dieser Technologie nicht genau einschätzen können und nicht über ausreichende Personalqualifikationen verfügen. Wenn es in vielen westlichen Ländern bereits professionelle Berater gibt, die in der Lage sind, die IT-Infrastruktur zu analysieren, einen Plan für die Virtualisierung der physischen Server des Unternehmens zu erstellen und die Rentabilität des Projekts zu bewerten, dann gibt es in Russland nur sehr wenige solcher Leute. Natürlich wird sich die Situation in den kommenden Jahren ändern, und zu einer Zeit, in der verschiedene Unternehmen die Vorteile der Virtualisierung zu schätzen wissen, wird es Spezialisten mit ausreichendem Wissen und Erfahrung geben, um Virtualisierungstechnologien in verschiedenen Größenordnungen zu implementieren. Derzeit führen viele Unternehmen nur lokale Experimente zum Einsatz von Virtualisierungstools durch, wobei hauptsächlich kostenlose Plattformen verwendet werden.

Erfreulicherweise bieten viele Anbieter neben kommerziellen Virtualisierungssystemen auch kostenlose Plattformen mit eingeschränktem Funktionsumfang an, damit Unternehmen teilweise virtuelle Maschinen in der Produktionsumgebung des Unternehmens einsetzen können und gleichzeitig den Umstieg auf seriöse Plattformen evaluieren. Auch im Desktop-Bereich beginnen die Anwender, virtuelle Maschinen im Alltag einzusetzen und stellen keine großen Anforderungen an Virtualisierungsplattformen. Daher werden von ihnen zunächst freie Mittel berücksichtigt.

Führend in der Produktion von Virtualisierungsplattformen

Die Entwicklung von Virtualisierungswerkzeugen auf verschiedenen Ebenen der Systemabstraktion dauert mehr als dreißig Jahre an. Die Hardwarefähigkeiten von Servern und Desktop-PCs haben es jedoch erst vor relativ kurzer Zeit ermöglicht, dass diese Technologie in Bezug auf die Betriebssystemvirtualisierung ernst genommen wird. So kam es, dass sowohl verschiedene Unternehmen als auch Enthusiasten seit vielen Jahren verschiedene Tools zur Virtualisierung von Betriebssystemen entwickeln, aber nicht alle von ihnen werden derzeit aktiv unterstützt und befinden sich in einem für eine effektive Nutzung akzeptablen Zustand. Bis heute sind VMware, Microsoft, SWSoft (zusammen mit seiner Firma Parallels), XenSource, Virtual Iron und InnoTek die führenden Hersteller von Virtualisierungstools. Neben den Produkten dieser Anbieter gibt es auch Entwicklungen wie QEMU, Bosch und andere sowie Virtualisierungstools für Betriebssystementwickler (z. B. Solaris Containers), die wenig verbreitet sind und von einem engen Kreis genutzt werden von Spezialisten.

Unternehmen, die auf dem Markt für Seinige Erfolge erzielt haben, verteilen einige ihrer Produkte kostenlos und verlassen sich nicht auf die Plattformen selbst, sondern auf die Verwaltungstools, ohne die es schwierig ist, virtuelle Maschinen in großem Umfang zu verwenden. Darüber hinaus sind kommerzielle Desktop-Virtualisierungsplattformen, die für die Verwendung durch IT-Experten und Softwareunternehmen entwickelt wurden, erheblich leistungsfähiger als ihre kostenlosen Pendants.

Wird die Server-Virtualisierung jedoch im kleinen Maßstab im SMB-Bereich (Small and Medium Business) eingesetzt, können kostenlose Plattformen durchaus eine Nische in der Produktionsumgebung eines Unternehmens füllen und erhebliche Kosteneinsparungen bringen.

Wann Sie kostenlose Plattformen verwenden sollten

Benötigen Sie keine Massenbereitstellung virtueller Server in einer Organisation, eine ständige Überwachung der Leistung physischer Server bei wechselnder Last und ein hohes Maß an Verfügbarkeit, können Sie virtuelle Maschinen auf Basis kostenloser Plattformen zur Wartung der internen Server der Organisation einsetzen. Mit zunehmender Anzahl virtueller Server und einem hohen Grad ihrer Konsolidierung auf physischen Plattformen ist der Einsatz leistungsfähiger Tools zur Verwaltung und Wartung einer virtuellen Infrastruktur erforderlich. Je nachdem, ob Sie verschiedene Systeme und Speichernetzwerke verwenden müssen, z. B. Storage Area Network (SAN), Backup- und Disaster-Recovery-Tools und Hot-Migration von laufenden virtuellen Maschinen auf andere Hardware, können Sie möglicherweise keine kostenlosen Virtualisierungsplattformen verwenden. Allerdings ist zu beachten, dass kostenlose Plattformen ständig aktualisiert werden und neue Funktionen erhalten, was den Umfang ihrer Nutzung erweitert.

Ein weiterer wichtiger Punkt ist der technische Support. Kostenlose Virtualisierungsplattformen existieren entweder innerhalb der Open-Source-Community, wo viele Enthusiasten an der Produktentwicklung und dem Support beteiligt sind, oder sie werden vom Plattformanbieter unterstützt. Die erste Option beinhaltet die aktive Teilnahme der Benutzer an der Entwicklung des Produkts, ihre Meldung von Fehlern und garantiert nicht die Lösung Ihrer Probleme bei der Nutzung der Plattform, während im zweiten Fall meistens überhaupt kein technischer Support bereitgestellt wird . Daher muss die Qualifikation des Personals, das kostenlose Plattformen einsetzt, auf einem hohen Niveau sein.

Kostenlose Desktop-Virtualisierungsplattformen sind am nützlichsten, um Benutzerumgebungen zu isolieren, sie von bestimmter Hardware zu entkoppeln, zu Bildungszwecken zum Erlernen von Betriebssystemen und zum sicheren Testen verschiedener Software. Es lohnt sich kaum, Free-Desktop-Plattformen in großem Umfang für die Entwicklung oder das Testen von Software in Softwareunternehmen einzusetzen, da sie dafür nicht über ausreichende Funktionalität verfügen. Für den Heimgebrauch sind kostenlose Virtualisierungsprodukte jedoch durchaus geeignet, und Sie können sogar Beispiele nennen, wenn virtuelle Maschinen auf Basis kostenloser Desktop-Virtualisierungssysteme in einer Produktionsumgebung verwendet werden.

Kostenlose Servervirtualisierungsplattformen

In fast jeder Organisation, die eine Serverinfrastruktur nutzt, ist es oft erforderlich, sowohl Standard-Netzwerkdienste (DNS, DHCP, Active Directory) als auch mehrere interne Server (Anwendungen, Datenbanken, Unternehmensportale) zu verwenden, die nicht stark belastet werden und verteilt sind über verschiedene physische Server. Diese Server können in mehreren virtuellen Maschinen auf einem einzigen physischen Host konsolidiert werden. Dies vereinfacht den Migrationsprozess von Servern von einer Hardwareplattform auf eine andere, reduziert die Gerätekosten, vereinfacht das Backup-Verfahren und verbessert ihre Verwaltbarkeit. Abhängig von den Betriebssystemen, auf denen Netzwerkdienste ausgeführt werden, und den Anforderungen an ein Virtualisierungssystem können Sie das richtige kostenlose Produkt für eine Unternehmensumgebung auswählen. Bei der Auswahl einer Servervirtualisierungsplattform müssen Leistungsmerkmale (sie hängen sowohl von der verwendeten Virtualisierungstechnik als auch von der Qualität der Implementierung verschiedener Komponenten der Anbieterplattform ab), einfache Bereitstellung, Skalierbarkeit der virtuellen Infrastruktur, und die Verfügbarkeit zusätzlicher Verwaltungs-, Wartungs- und Überwachungstools.


Das Projekt ist eine Open-Source-Virtualisierungsplattform, die von einer Gemeinschaft unabhängiger Entwickler entwickelt wurde, die von SWSoft unterstützt werden. Das Produkt wird unter der GNU GPL-Lizenz vertrieben. Der Kern der OpenVZ-Plattform ist Teil des Virtuozzo-Produkts, einem kommerziellen SWSoft-Produkt, das mehr Funktionen als OpenVZ hat. Beide Produkte verwenden eine originelle Virtualisierungstechnik: Virtualisierung auf der Ebene von Betriebssysteminstanzen. Diese Virtualisierungsmethode ist weniger flexibel als die vollständige Virtualisierung (Sie können nur Betriebssysteme der Linux-Familie ausführen, da ein Kern für alle virtuellen Umgebungen verwendet wird), ermöglicht jedoch minimale Leistungseinbußen (ca. 1-3 Prozent). Systeme, auf denen OpenVZ läuft, können nicht als vollwertige virtuelle Maschinen bezeichnet werden, es handelt sich vielmehr um virtuelle Umgebungen (Virtual Environments, VE), in denen keine Emulation von Hardwarekomponenten stattfindet. Mit diesem Ansatz können Sie nur verschiedene Linux-Distributionen als virtuelle Umgebungen auf demselben physischen Server installieren. Darüber hinaus hat jede der virtuellen Umgebungen ihre eigenen Prozessbäume, Systembibliotheken und Benutzer und kann Netzwerkschnittstellen auf ihre eigene Weise verwenden.

Virtuelle Umgebungen werden Benutzern und darin ausgeführten Anwendungen als nahezu vollständig isolierte Umgebungen präsentiert, die unabhängig von anderen Umgebungen verwaltet werden können. Aufgrund dieser Faktoren und der hohen Leistung werden OpenVZ- und SWSoft Virtuozzo-Produkte am häufigsten mit der Unterstützung von virtuellen privaten Servern (Virtual Private Servers, VPS) in Hosting-Systemen verwendet. Basierend auf OpenVZ ist es möglich, Kunden mehrere dedizierte virtuelle Server auf Basis derselben Hardwareplattform bereitzustellen, auf denen jeweils unterschiedliche Anwendungen installiert und getrennt von anderen virtuellen Umgebungen neu gestartet werden können. Die OpenVZ-Architektur ist unten dargestellt:

Einige unabhängige Experten haben die Leistung virtueller Server basierend auf kommerziellen SWSoft Virtuozzo- und VMware ESX Server-Plattformen für Hosting-Zwecke verglichen und sind zu dem Schluss gekommen, dass Virtuozzo bei dieser Aufgabe besser ist. Natürlich hat die OpenVZ-Plattform, auf der Virtuozzo aufgebaut ist, die gleiche hohe Leistung, aber ihr fehlen die fortschrittlichen Steuerungen, die in Virtuozzo zu finden sind.

Die OpenVZ-Umgebung eignet sich auch hervorragend für Lernzwecke, in denen jeder mit seiner isolierten Umgebung experimentieren kann, ohne andere Umgebungen auf diesem Host zu gefährden. Die Nutzung der OpenVZ-Plattform für andere Zwecke ist derweil aufgrund der offensichtlichen Inflexibilität der Virtualisierungslösung auf Betriebssystemebene derzeit nicht sinnvoll.


Das Unternehmen ist erst vor relativ kurzer Zeit in den Markt für Virtualisierungsplattformen eingetreten, hat sich aber schnell der Konkurrenz mit so seriösen Anbietern von Serverplattformen wie VMware, XenSource und SWSoft angeschlossen. Die Produkte von Virtual Iron basieren auf dem kostenlosen Xen-Hypervisor, der von der Open-Source-Xen-Community gepflegt wird. Virtual Iron ist eine Virtualisierungsplattform, die kein Host-Betriebssystem benötigt (die sogenannte Bare-Metal-Plattform) und auf den Einsatz im Unternehmensumfeld großer Unternehmen ausgerichtet ist. Virtual Iron-Produkte verfügen über alle erforderlichen Tools, um virtuelle Maschinen zu erstellen, zu verwalten und in die Produktionsinformationsumgebung des Unternehmens zu integrieren. Virtual Iron unterstützt 32-Bit- und 64-Bit-Gast- und Host-Betriebssysteme sowie virtuelles SMP (Symmetric Multi Processing), wodurch virtuelle Maschinen mehrere Prozessoren verwenden können.

Anfänglich verwendete Virtual Iron Paravirtualisierungstechniken, um Gäste in virtuellen Maschinen auszuführen, ähnlich wie XenSource-Produkte, die auf dem Xen-Hypervisor basieren. Bei der Nutzung von Paravirtualisierung werden spezielle Versionen von Gastsystemen in virtuellen Maschinen verwendet, deren Quellcode für die Ausführung auf ihren Virtualisierungsplattformen modifiziert wird. Dies erfordert Änderungen am Kernel des Betriebssystems, was für ein Open-Source-Betriebssystem kein großes Problem darstellt, während dies für proprietäre geschlossene Systeme wie Windows nicht akzeptabel ist. Bei Paravirtualisierungssystemen gibt es keinen signifikanten Leistungsgewinn. Wie die Praxis gezeigt hat, zögern Betriebssystemhersteller, Unterstützung für Paravirtualisierung in ihre Produkte aufzunehmen, sodass diese Technologie nicht viel Popularität erlangt hat. Infolgedessen war Virtual Iron eines der ersten Unternehmen, das Hardware-Virtualisierungstechniken einsetzte, um unveränderte Gastsysteme auszuführen. Aktuell erlaubt die neuste Version der Virtual Iron Plattform 3.7 den Einsatz virtueller Maschinen auf Serverplattformen, die nur Hardware-Virtualisierung unterstützen. Die folgenden Prozessoren werden offiziell unterstützt:

  • Intel® Xeon® 3000-, 5000-, 5100-, 5300-, 7000-, 7100-Reihe
  • Intel® Core™ 2 Duo E6000-Reihe
  • Intel® Pentium® D-930, 940, 950, 960
  • Prozessoren der AMD Opteron™ 2200- oder 8200-Serie
  • AMD Athlon™ 64 x2 Dual-Core-Prozessor
  • AMD Turion™ 64 x2 Dual-Core-Prozessor

Darüber hinaus finden Sie auf der Virtual Iron-Website Listen mit Hardware, die vom Unternehmen für seine Virtualisierungsplattform zertifiziert wurde.

Virtual Iron-Produkte gibt es in drei Editionen:

  • Einzelserver-Virtualisierung und -Verwaltung
  • Virtualisierung und Verwaltung mehrerer Server
  • Virtual Desktop Infrastructure (VDI)-Lösung

Derzeit ist die kostenlose Lösung die Single Server-Lösung, mit der Sie Virtual Iron auf einem einzelnen physischen Host in der Infrastruktur einer Organisation installieren können. Es unterstützt das iSCSI-Protokoll, SAN-Netzwerke und lokale Speichersysteme.

Für die kostenlose Edition von Single Server gelten die folgenden Mindestinstallationsanforderungen:

  • 2 GB Arbeitsspeicher
  • CD-ROM-Laufwerk
  • 36 GB Speicherplatz
  • Ethernet-Netzwerkschnittstelle
  • Fibre-Channel-Netzwerkschnittstelle (optional)
  • Unterstützung für Hardware-Virtualisierung im Prozessor

Mit Virtual Iron können Sie alle Möglichkeiten der Hardware-Virtualisierung und der Tools zur Verwaltung virtueller Maschinen nutzen. Die kostenlose Edition soll in erster Linie die Effizienz und den Komfort der Virtualisierungsplattform und der Verwaltungstools bewerten. Es kann jedoch auch in einer Unternehmensproduktionsumgebung verwendet werden, um interne Unternehmensserver zu unterstützen. Das Fehlen einer separaten Host-Plattform ermöglicht es erstens, kein Geld für den Erwerb einer Lizenz für ein Host-Betriebssystem auszugeben, und zweitens reduziert es Leistungsverluste für die Unterstützung von Gastsystemen. Typische Anwendungen für die kostenlose Edition von Virtual Iron sind die Bereitstellung mehrerer virtueller Server in der Infrastruktur des KMU-Sektors einer kleinen Organisation, um wichtige Server von der Hardware zu trennen und sie besser verwaltbar zu machen. Zukünftig kann beim Kauf einer kommerziellen Version der Plattform die virtuelle Server-Infrastruktur erweitert und Features wie effektive Backup-Tools und „heiße“ Migration virtueller Server zwischen Hosts genutzt werden.


In Sachen Komfort und Benutzerfreundlichkeit ist VMware Server unangefochten führend und steht in Sachen Performance kommerziellen Plattformen (insbesondere bei Linux-Hostsystemen) in nichts nach. Zu den Nachteilen gehören die fehlende Unterstützung für Hot-Migration und das Fehlen von Backup-Tools, die jedoch meist nur von kommerziellen Plattformen bereitgestellt werden. Natürlich ist VMware Server die beste Wahl für die schnelle Bereitstellung der internen Server einer Organisation, einschließlich vorinstallierter Vorlagen für virtuelle Server, die auf verschiedenen Ressourcen (z. B.) in Hülle und Fülle zu finden sind.

Ergebnisse

Zusammenfassend lässt sich sagen, dass jede von ihnen derzeit eine eigene Nische im SMB-Bereich besetzt, in der Sie durch den Einsatz virtueller Maschinen die Effizienz der IT-Infrastruktur erheblich steigern, mehr machen können flexibel und reduzieren die Kosten für die Anschaffung von Geräten. Kostenlose Plattformen ermöglichen es Ihnen zunächst, die Möglichkeiten der Virtualisierung nicht auf dem Papier zu bewerten und alle Vorteile dieser Technologie zu spüren. Abschließend finden Sie hier eine zusammenfassende Tabelle mit Merkmalen kostenloser Virtualisierungsplattformen, die Ihnen bei der Auswahl der richtigen Serverplattform für Ihre Zwecke helfen soll. Denn über die kostenlose Virtualisierung liegt der Weg zu weiteren Investitionen in Virtualisierungsprojekte auf Basis kommerzieller Systeme.

Plattformname, EntwicklerHost-BetriebssystemOffiziell unterstütztes GastbetriebssystemUnterstützung mehrerer virtueller Prozessoren (Virtual SMP)VirtualisierungstechnikTypische VerwendungProduktivität
Ein Open-Source-Community-Projekt, das von SWSoft Linux unterstützt wirdVerschiedene Linux-DistributionenJaVirtualisierung auf BetriebssystemebeneIsolierung virtueller Server (auch für Hosting-Dienste)Verlustfrei

Virtual Iron Software, Inc.
Nicht erforderlichWindows, RedHat, SuSEJa (bis zu 8)Servervirtualisierung in einer Produktionsumgebungnah am Eingeborenen
Virtueller Server 2005 R2 SP1
Microsoft
WindowsWindows, Linux (Red Hat und SUSE)NeinNative Virtualisierung, Hardware-VirtualisierungVirtualisierung interner Server in einer UnternehmensumgebungNahezu nativ (mit installierten Virtual Machine Additions)

VMware
Windows, LinuxDOS, Windows, Linux, FreeBSD, NetWare, SolarisJaNative Virtualisierung, Hardware-VirtualisierungKonsolidierung von Servern für kleine Unternehmen, Entwicklung/Testsnah am Eingeborenen
Xen Express und Xen
XenSource (unterstützt von Intel und AMD)
NetBSD, Linux, SolarisLinux, NetBSD, FreeBSD, OpenBSD, Solaris, Windows, Plan 9JaParavirtualisierung, HardwarevirtualisierungEntwickler, Tester, IT-Experten, Serverkonsolidierung für kleine UnternehmenNahezu nativ (einige Verluste aufgrund von Netzwerken und starker Festplattennutzung)