Narzędzia do wirtualizacji maszyna wirtualna. Wdrożenie narzędzi wirtualizacyjnych jako rozwiązania do scentralizowanego zarządzania infrastrukturą przedsiębiorstwa

Koncepcja środowiska wirtualnego

Nowy kierunek wirtualizacji, który daje całościowy całościowy obraz całej infrastruktury sieciowej z wykorzystaniem technik agregacji.

Rodzaje wirtualizacji

Wirtualizacja to ogólny termin obejmujący abstrakcję zasobów dla wielu aspektów informatyki. Poniżej podano rodzaje wirtualizacji.

Wirtualizacja oprogramowania

Transmisja dynamiczna

Podczas tłumaczenia dynamicznego ( tłumaczenie binarne) problematyczne polecenia systemu gościa są przechwytywane przez hypervisor. Po zastąpieniu tych poleceń bezpiecznymi, kontrola nad systemem gościa powraca.

Parawirtualizacja

Parawirtualizacja to technika wirtualizacji, w której systemy operacyjne gościa przygotowywane są do działania w środowisku zwirtualizowanym, dla którego ich jądro jest nieznacznie modyfikowane. System operacyjny komunikuje się z programem hypervisor, który udostępnia mu interfejs API gościa, zamiast bezpośrednio korzystać z zasobów, takich jak tabela stron pamięci.

Metoda parawirtualizacji pozwala uzyskać wyższą wydajność niż metoda translacji dynamicznej.

Metodę parawirtualizacji można zastosować tylko wtedy, gdy systemy-gościa posiadają kody open source, które można modyfikować na podstawie licencji lub hiperwizor i system-gość zostały opracowane przez tego samego producenta z uwzględnieniem możliwości parawirtualizacji systemu-gościa (choć pod warunkiem, że hypervisor można uruchomić na niższym poziomie hypervisora, a następnie dokonać parawirtualizacji samego hypervisora).

Termin ten pojawił się po raz pierwszy w projekcie Denali.

Wbudowana wirtualizacja

Zalety:

  • Udostępnianie zasobów pomiędzy obydwoma systemami operacyjnymi (katalogi, drukarki itp.).
  • Przyjazny interfejs dla okien aplikacji z różnych systemów (nakładające się okna aplikacji, taka sama minimalizacja okien jak w systemie hosta)
  • Po dostosowaniu do platformy sprzętowej wydajność niewiele różni się od oryginalnego natywnego systemu operacyjnego. Szybkie przełączanie pomiędzy systemami (mniej niż 1 sek.)
  • Prosta procedura aktualizacji systemu gościa.
  • Wirtualizacja dwukierunkowa (aplikacje w jednym systemie działają w drugim i odwrotnie)

Implementacje:

Wirtualizacja sprzętowa

Zalety:

  • Uprość rozwój platform oprogramowania do wirtualizacji, udostępniając interfejsy zarządzania sprzętem i obsługę wirtualnych systemów gościa. Zmniejsza to pracochłonność i czas wymagany do opracowania systemów wirtualizacji.
  • Możliwość zwiększenia wydajności platform wirtualizacyjnych. Wirtualne systemy gościnne są zarządzane bezpośrednio przez małą warstwę oprogramowania pośredniego, hypervisor, co zwiększa wydajność.
  • Poprawia się bezpieczeństwo i możliwe staje się przełączanie pomiędzy kilkoma działającymi niezależnymi platformami wirtualizacyjnymi na poziomie sprzętowym. Każda z maszyn wirtualnych może działać niezależnie, we własnej przestrzeni zasobów sprzętowych, całkowicie odizolowanej od siebie. Pozwala to wyeliminować straty wydajności związane z utrzymaniem platformy hosta i zwiększyć bezpieczeństwo.
  • System gościa przestaje być powiązany z architekturą platformy hosta i implementacją platformy wirtualizacji. Technologia wirtualizacji sprzętu umożliwia uruchamianie 64-bitowych gości na 32-bitowych systemach hostów (z 32-bitowymi środowiskami wirtualizacji na hostach).

Przykłady aplikacji:

  • laboratoria testowe i szkolenia: Wygodnie jest testować aplikacje na maszynach wirtualnych, które wpływają na ustawienia systemów operacyjnych, np. aplikacje instalacyjne. Ze względu na łatwość wdrażania maszyn wirtualnych często wykorzystuje się je do szkoleń z nowych produktów i technologii.
  • dystrybucja preinstalowanego oprogramowania: wielu twórców oprogramowania tworzy gotowe obrazy maszyn wirtualnych z preinstalowanymi produktami i udostępnia je bezpłatnie lub komercyjnie. Takie usługi świadczy Vmware VMTN lub Parallels PTN

Wirtualizacja serwerów

  1. umieszczenie kilku serwerów logicznych w ramach jednego serwera fizycznego (konsolidacja)
  2. łączenie kilku serwerów fizycznych w jeden serwer logiczny w celu rozwiązania konkretnego problemu. Przykład: Oracle Real Application Cluster, technologia gridowa, klastry o wysokiej wydajności.
  • SWISTA
  • dwaOSdwa
  • Wirtualizacja korporacyjna Red Hat dla serwerów
  • PowerVM

Ponadto wirtualizacja serwerów ułatwia przywracanie uszkodzonych systemów na dowolnym dostępnym komputerze, niezależnie od jego konkretnej konfiguracji.

Wirtualizacja stacji roboczych

Wirtualizacja zasobów

  • Udostępnianie zasobów (partycjonowanie). O wirtualizacji zasobów można myśleć jako o podziale jednego fizycznego serwera na kilka części, z których każda jest widoczna dla właściciela jako osobny serwer. Nie jest to technologia maszyny wirtualnej, jest ona implementowana na poziomie jądra systemu operacyjnego.

W systemach z drugim typem hypervisora ​​oba systemy operacyjne (gość i hypervisor) zużywają zasoby fizyczne i wymagają odrębnych licencji. Serwery wirtualne działające na poziomie jądra systemu operacyjnego praktycznie nie tracą wydajności, co pozwala na uruchomienie na jednym serwerze fizycznym setek serwerów wirtualnych, które nie wymagają dodatkowych licencji.

Podział przestrzeni dyskowej lub przepustowości sieci na szereg mniejszych elementów, które są lżejsze od zasobów tego samego typu.

Przykładem może być wdrożenie udostępniania zasobów (Crossbow Project), które pozwala na utworzenie kilku wirtualnych interfejsów sieciowych w oparciu o jeden fizyczny.

  • Agregowanie, dystrybucja lub dodawanie wielu zasobów do większych zasobów lub łączenie zasobów. Na przykład symetryczne systemy wieloprocesorowe łączą wiele procesorów; Menedżerowie RAID i dysków łączą wiele dysków w jeden duży dysk logiczny; Sprzęt RAID i sprzęt sieciowy korzystają z wielu kanałów połączonych w taki sposób, że wyglądają jak pojedynczy kanał szerokopasmowy. Na poziomie meta klastry komputerowe wykonują wszystkie powyższe zadania. Czasami dotyczy to również sieciowych systemów plików wyodrębnionych z magazynu danych, na którym są zbudowane, na przykład Vmware VMFS, Solaris / OpenSolaris ZFS, NetApp WAFL

Wirtualizacja aplikacji

Zalety:

  • izolacja wykonania aplikacji: brak niezgodności i konfliktów;
  • za każdym razem w oryginalnej formie: rejestr nie jest zaśmiecony, nie ma plików konfiguracyjnych - niezbędnych dla serwera;
  • mniejsze zużycie zasobów w porównaniu do emulacji całego systemu operacyjnego.

Zobacz też

Spinki do mankietów

  • Przegląd technik, architektur i implementacji wirtualizacji (Linux), www.ibm.com
  • Maszyny wirtualne 2007. Natalia Elmanova, Sergey Pakhomov, ComputerPress 9’2007
Wirtualizacja serwerów
  • Wirtualizacja serwerów. Neil McAllister, Świat Info
  • Wirtualizacja serwerów o standardowej architekturze. Leonid Czerniak, Systemy otwarte
  • Alternatywy dla liderów w kanale 2009, 17 sierpnia 2009
Wirtualizacja sprzętowa
  • Technologie wirtualizacji sprzętu, ixbt.com
  • Spirale wirtualizacji sprzętu. Aleksander Aleksandrow, Systemy otwarte

Notatki


Fundacja Wikimedia. 2010.

Zobacz, co oznacza „wirtualizacja” w innych słownikach:

    wirtualizacja- Następująca ogólna definicja jest podana w pracach stowarzyszenia SNIA. „Wirtualizacja to czynność polegająca na połączeniu kilku urządzeń, usług lub funkcji wewnętrznego komponentu infrastruktury (back end) z dodatkowym zewnętrznym (front... ...

    wirtualizacja- Oddzielenie warstwy fizycznej sieci (lokalizacja i podłączenie urządzeń) od jej warstwy logicznej (grupy robocze i użytkownicy). Skonfiguruj konfigurację sieci, korzystając z kryteriów logicznych zamiast fizycznych. ... Przewodnik tłumacza technicznego

    Wirtualizacja sieci to proces łączenia zasobów sieciowych sprzętu i oprogramowania w jedną sieć wirtualną. Wirtualizacja sieci dzieli się na zewnętrzną, czyli łączącą wiele sieci w jedną wirtualną, oraz wewnętrzną, tworzącą... ...Wikipedię

Historia technologii wirtualizacji sięga ponad czterdziestu lat. Jednak po okresie ich triumfalnego stosowania w latach 70. i 80. ubiegłego wieku, przede wszystkim na komputerach typu mainframe IBM, koncepcja ta zeszła na dalszy plan przy tworzeniu korporacyjnych systemów informatycznych. Faktem jest, że samo pojęcie wirtualizacji wiąże się z tworzeniem współdzielonych centrów obliczeniowych, z koniecznością wykorzystania jednego zestawu sprzętu do utworzenia kilku różnych logicznie niezależnych systemów. A od połowy lat 80. w branży komputerowej zaczął dominować zdecentralizowany model organizacji systemów informatycznych oparty na minikomputerach, a następnie serwerach x86.

Wirtualizacja dla architektury x86

Wydaje się, że w komputerach osobistych, które pojawiły się z czasem, problem wirtualizacji zasobów sprzętowych nie istniał z definicji, ponieważ każdy użytkownik miał do dyspozycji cały komputer z własnym systemem operacyjnym. Jednak wraz ze wzrostem mocy komputerów PC i rozszerzeniem zakresu systemów x86 sytuacja szybko się zmieniła. „Dialektyczna spirala” rozwoju miała swój kolejny obrót i na przełomie wieków rozpoczął się kolejny cykl wzmacniania sił dośrodkowych w celu koncentracji zasobów obliczeniowych. Na początku tej dekady, w obliczu rosnącego zainteresowania przedsiębiorstw zwiększeniem wydajności zasobów komputerowych, rozpoczął się nowy etap w rozwoju technologii wirtualizacyjnych, który obecnie kojarzony jest głównie z wykorzystaniem architektury x86.

Od razu należy podkreślić, że choć w koncepcjach wirtualizacji x86 wydawało się, że w ujęciu teoretycznym nie ma już nic nieznanego wcześniej, to w porównaniu z sytuacją sprzed 20 lat mówiliśmy o jakościowo nowym dla branży IT zjawisku. Faktem jest, że w architekturze sprzętowej i programowej komputerów mainframe i komputerów z systemem Unix problemy z wirtualizacją zostały natychmiast rozwiązane na poziomie podstawowym. System x86 nie został zbudowany z myślą o pracy w trybie centrum danych, a jego rozwój w kierunku wirtualizacji jest dość złożonym procesem ewolucyjnym z wieloma różnymi opcjami rozwiązania problemu.

Kolejnym i być może nawet ważniejszym punktem są zasadniczo różne modele biznesowe rozwoju komputerów mainframe i x86. W pierwszym przypadku tak naprawdę mówimy o kompleksie oprogramowania i sprzętu jednego dostawcy, obsługującym ogólnie dość ograniczony zakres oprogramowania aplikacyjnego dla niezbyt szerokiego grona dużych klientów. W drugim mamy do czynienia ze zdecentralizowaną społecznością producentów sprzętu, dostawców podstawowego oprogramowania i ogromną armią twórców oprogramowania aplikacyjnego.

Stosowanie narzędzi do wirtualizacji x86 rozpoczęło się pod koniec lat 90-tych od stacji roboczych: jednocześnie ze wzrostem liczby wersji systemów operacyjnych klienta, liczba osób (programistów, specjalistów wsparcia technicznego, ekspertów ds. oprogramowania), którzy potrzebowali mieć kilka jednocześnie na jednym Komputer stale się rozwijał, kopie różnych systemów operacyjnych.

  • Nieco później zaczęto stosować wirtualizację infrastruktury serwerowej, a wiązało się to przede wszystkim z rozwiązywaniem problemów konsolidacji zasobów obliczeniowych. Ale tutaj natychmiast utworzyły się dwa niezależne kierunki: ·
  • obsługa heterogenicznych środowisk operacyjnych (w tym do uruchamiania starszych aplikacji). Przypadek ten najczęściej ma miejsce w korporacyjnych systemach informatycznych. Technicznie rzecz biorąc, problem rozwiązuje się poprzez jednoczesne uruchomienie kilku maszyn wirtualnych na jednym komputerze, z których każda zawiera instancję systemu operacyjnego. Ale wdrożenie tego trybu odbywa się przy użyciu dwóch zasadniczo różnych podejść: pełnej wirtualizacji i parawirtualizacji; ·
  • wsparcie dla jednorodnych środowisk obliczeniowych, co jest najbardziej typowe dla hostingu aplikacji przez dostawców usług. Można oczywiście skorzystać tutaj z opcji maszyn wirtualnych, jednak dużo efektywniejsze jest tworzenie izolowanych kontenerów w oparciu o jedno jądro systemu operacyjnego.

Kolejny etap życia technologii wirtualizacji x86 rozpoczął się w latach 2004-2006. i wiązał się z początkiem ich masowego stosowania w systemach korporacyjnych. W związku z tym, o ile wcześniej programiści zajmowali się głównie tworzeniem technologii do wykonywania środowisk wirtualnych, teraz na pierwszy plan zaczęły wysuwać się zadania zarządzania tymi rozwiązaniami i ich integracją z ogólną infrastrukturą informatyczną firmy. Jednocześnie zauważalny był wzrost zapotrzebowania ze strony użytkowników indywidualnych (ale jeśli w latach 90. byli to programiści i testerzy, to teraz mówimy o użytkownikach końcowych - zarówno profesjonalnych, jak i domowych).

Podsumowując powyższe, ogólnie rzecz biorąc, możemy wyróżnić następujące główne scenariusze wykorzystania technologii wirtualizacyjnych przez klientów: ·

  • rozwój i testowanie oprogramowania; ·
  • modelowanie działania rzeczywistych systemów na stanowiskach badawczych; ·
  • konsolidacja serwerów w celu zwiększenia efektywności wykorzystania sprzętu; ·
  • konsolidacja serwerów w celu rozwiązania problemów związanych z obsługą starszych aplikacji; ·
  • demonstracja i badanie nowego oprogramowania; ·
  • wdrażanie i aktualizacja oprogramowania aplikacyjnego w kontekście istniejących systemów informatycznych; ·
  • praca użytkowników końcowych (głównie domowych) na komputerach PC w heterogenicznych środowiskach operacyjnych.

Podstawowe opcje wirtualizacji oprogramowania

Powiedzieliśmy już wcześniej, że problemy rozwoju technologii wirtualizacji w dużej mierze wiążą się z przezwyciężaniem odziedziczonych cech architektury oprogramowania i sprzętu x86. Jest na to kilka podstawowych metod.

Pełna wirtualizacja (pełna, natywna wirtualizacja). Stosowane są niezmodyfikowane instancje systemów operacyjnych gościa, a do wspomagania działania tych systemów operacyjnych stosowana jest wspólna warstwa emulacji ich wykonania na wierzchu systemu operacyjnego hosta, który jest zwykłym systemem operacyjnym (rys. 1). Technologia ta jest wykorzystywana w szczególności w VMware Workstation, VMware Server (dawniej GSX Server, Parallels Desktop, Parallels Server, MS Virtual PC, MS Virtual Server, Virtual Iron. Zaletami tego podejścia są względna łatwość wdrożenia, wszechstronność i niezawodność rozwiązania, wszystkie funkcje zarządzania przejmuje system operacyjny hosta. Wady - wysokie dodatkowe koszty ogólne zużytych zasobów sprzętowych, brak uwzględnienia funkcji systemu gościa, mniejsza elastyczność w wykorzystaniu sprzętu niż to konieczne.

Parawirtualizacja. Jądro systemu gościa zostało zmodyfikowane w taki sposób, że zawiera nowy zestaw API, dzięki którym może współpracować bezpośrednio ze sprzętem bez konfliktu z innymi maszynami wirtualnymi (VM; rys. 2). W takim przypadku nie ma potrzeby używania pełnoprawnego systemu operacyjnego jako oprogramowania hosta, którego funkcje w tym przypadku wykonuje specjalny system zwany hiperwizorem. To właśnie ta opcja jest dziś najodpowiedniejszym kierunkiem rozwoju technologii wirtualizacji serwerów i jest wykorzystywana w VMware ESX Server, Xen (oraz rozwiązaniach innych dostawców bazujących na tej technologii), Microsoft Hyper-V. Zaletami tej technologii jest brak konieczności posiadania systemu operacyjnego hosta – maszyny wirtualne są instalowane praktycznie na gołym metalu, a zasoby sprzętowe są efektywnie wykorzystywane. Wadami są złożoność wdrożenia podejścia i konieczność stworzenia wyspecjalizowanego hypervisora ​​systemu operacyjnego.

Wirtualizacja na poziomie jądra systemu operacyjnego (wirtualizacja na poziomie systemu operacyjnego). Opcja ta polega na wykorzystaniu pojedynczego jądra systemu operacyjnego hosta do stworzenia niezależnych, równoległych środowisk operacyjnych (rys. 3). W przypadku oprogramowania gościa tworzone jest wyłącznie jego własne środowisko sieciowe i sprzętowe. Ta opcja jest używana w Virtuozzo (dla systemów Linux i Windows), OpenVZ (bezpłatna wersja Virtuozzo) i Solaris Containers. Zalety - wysoka efektywność wykorzystania zasobów sprzętowych, niskie koszty techniczne, doskonała łatwość zarządzania, minimalizacja kosztów zakupu licencji. Wady - wdrażanie wyłącznie jednorodnych środowisk obliczeniowych.

Wirtualizacja aplikacji zakłada zastosowanie modelu silnej izolacji programów aplikacyjnych z kontrolowaną interakcją z systemem operacyjnym, w którym wirtualizowana jest każda instancja aplikacji i wszystkie jej główne komponenty: pliki (w tym systemowe), rejestr, czcionki, pliki INI, obiekty COM , usługi (ryc. 4 ). Aplikacja uruchamia się bez procedury instalacyjnej w jej tradycyjnym znaczeniu i można ją uruchomić bezpośrednio z nośników zewnętrznych (na przykład z kart flash lub z folderów sieciowych). Z punktu widzenia działu IT takie podejście ma oczywiste zalety: przyspieszenie wdrażania i zarządzania systemami desktopowymi, minimalizowanie nie tylko konfliktów pomiędzy aplikacjami, ale także konieczności testowania kompatybilności aplikacji. W rzeczywistości ta konkretna opcja wirtualizacji jest używana w Sun Java Virtual Machine, Microsoft Application Virtualization (wcześniej nazywana Softgrid), Thinstall (stała się częścią VMware na początku 2008 r.), Symantec/Altiris.

Pytania dotyczące wyboru rozwiązania do wirtualizacji

Powiedzieć: „produkt A to rozwiązanie do wirtualizacji oprogramowania” to wcale nie wystarczy, aby zrozumieć rzeczywiste możliwości „A”. Aby to zrobić, należy przyjrzeć się bliżej różnym cechom oferowanych produktów.

Pierwsza z nich związana jest z obsługą różnych systemów operacyjnych jako systemy hosta i gościa, a także możliwością uruchamiania aplikacji w środowiskach wirtualnych. Wybierając produkt do wirtualizacji, Klient musi mieć także na uwadze szeroki wachlarz parametrów technicznych: stopień utraty wydajności aplikacji w wyniku pojawienia się nowej warstwy operacyjnej, konieczność posiadania dodatkowych zasobów obliczeniowych do obsługi mechanizmu wirtualizacji, oraz zakres obsługiwanych urządzeń peryferyjnych.

Oprócz tworzenia mechanizmów wykonywania środowisk wirtualnych, dziś na pierwszy plan wysuwają się zadania związane z zarządzaniem systemami: konwersja środowisk fizycznych na wirtualne i odwrotnie, przywracanie systemu w przypadku awarii, przenoszenie środowisk wirtualnych z jednego komputera na drugi, wdrażanie i administrowanie oprogramowanie, zapewnienie bezpieczeństwa itp.

Wreszcie istotne są wskaźniki kosztów wykorzystywanej infrastruktury wirtualizacyjnej. Należy pamiętać, że tutaj w strukturze kosztów najważniejsza może być nie tyle cena samych narzędzi do wirtualizacji, ile możliwość zaoszczędzenia na zakupie licencji na podstawowy system operacyjny lub aplikacje biznesowe.

Kluczowi gracze na rynku wirtualizacji x86

Rynek narzędzi do wirtualizacji zaczął kształtować się niecałe dziesięć lat temu, a dziś nabrał już dość określonego kształtu.

Powstała w 1998 roku firma VMware jest jednym z pionierów wykorzystania technologii wirtualizacji dla komputerów x86 i dziś zajmuje wiodącą pozycję na tym rynku (według niektórych szacunków jego udział wynosi 70-80%). Od 2004 roku jest spółką zależną ECM Corporation, jednak działa samodzielnie na rynku pod własną marką. Według EMC zatrudnienie w VMware wzrosło w tym czasie z 300 do 3000 osób, a sprzedaż podwoiła się rocznie. Według oficjalnie ogłoszonych informacji roczne przychody firmy (ze sprzedaży produktów wirtualizacyjnych i usług z nimi związanych) zbliżają się obecnie do 1,5 miliarda dolarów, co dobrze odzwierciedla ogólny wzrost zapotrzebowania rynku na narzędzia wirtualizacyjne.

Obecnie WMware oferuje wszechstronną platformę wirtualizacyjną trzeciej generacji, VMware Virtual Infrastructure 3, która zawiera narzędzia zarówno dla indywidualnych komputerów PC, jak i centrum danych. Kluczowym komponentem tego pakietu oprogramowania jest hypervisor VMware ESX Server. Firmy mogą również skorzystać z bezpłatnego produktu VMware Virtual Server, który jest dostępny dla projektów pilotażowych.

Parallels to nowa (od stycznia 2008) nazwa firmy SWsoft, która jest jednocześnie weteranem rynku technologii wirtualizacyjnych. Jej kluczowym produktem jest Parallels Virtuozzo Containers, rozwiązanie do wirtualizacji na poziomie systemu operacyjnego, które umożliwia uruchamianie wielu izolowanych kontenerów (serwerów wirtualnych) na jednym serwerze Windows lub Linux. Aby zautomatyzować procesy biznesowe dostawców hostingu, oferowane jest narzędzie Parallels Plesk Control Panel. W ostatnich latach firma aktywnie rozwija narzędzia do wirtualizacji desktopów – Parallels Workstation (dla Windows i Linux) oraz Parallels Desktop for Mac (dla Mac OS na komputerach x86). W 2008 roku ogłosiła wprowadzenie na rynek nowego produktu - Parallels Server, który obsługuje mechanizm serwerowy maszyn wirtualnych korzystających z różnych systemów operacyjnych (Windows, Linux, Mac OS).

Microsoft wszedł na rynek wirtualizacji w 2003 roku wraz z przejęciem firmy Connectix, wypuszczając swój pierwszy produkt, Virtual PC, dla komputerów stacjonarnych. Od tego czasu konsekwentnie zwiększała gamę ofert w tym obszarze i dziś prawie zakończyła tworzenie platformy wirtualizacyjnej, w skład której wchodzą następujące komponenty. ·

  • Wirtualizacja serwerów. Oferowane są tutaj dwa różne podejścia technologiczne: wykorzystanie Microsoft Virtual Server 2005 i nowe rozwiązanie Hyper-V Server (obecnie w wersji beta). ·
  • Wirtualizacja na PC. Wykonano przy użyciu bezpłatnego produktu Microsoft Vitrual PC 2007. ·
  • Wirtualizacja aplikacji. Do takich zadań proponuje się system Microsoft SoftGrid Application Virtualization (dawniej nazywany SoftGrid). ·
  • Wirtualizacja prezentacji. Jest on implementowany przy użyciu usług terminalowych systemu Microsoft Windows Server i ogólnie jest od dawna znanym trybem dostępu do terminala. ·
  • Zintegrowane zarządzanie systemami wirtualnymi. Kluczową rolę w rozwiązywaniu tych problemów odgrywa System Center Virtual Machine Manager, wydany pod koniec ubiegłego roku.

Sun Microsystems oferuje wielopoziomowy zestaw technologii: tradycyjny system operacyjny, zarządzanie zasobami, wirtualizacja systemu operacyjnego, maszyny wirtualne i partycje twarde. Sekwencja ta zbudowana jest na zasadzie zwiększania poziomu izolacji aplikacji (ale jednocześnie zmniejszania elastyczności rozwiązania). Wszystkie technologie wirtualizacyjne firmy Sun są implementowane w systemie operacyjnym Solaris. Pod względem sprzętowym wszędzie dostępna jest obsługa architektury x64, chociaż systemy oparte na UltraSPARC są początkowo lepiej przystosowane do tych technologii. Inne systemy operacyjne, w tym Windows i Linux, mogą być używane jako maszyny wirtualne.

Citrix Systems Corporation jest uznanym liderem w dziedzinie infrastruktur zdalnego dostępu do aplikacji. Poważnie wzmocniła swoją pozycję w dziedzinie technologii wirtualizacji, kupując w 2007 roku firmę XenSource, twórcę Xen, jednej z wiodących technologii wirtualizacji systemów operacyjnych, za 500 milionów dolarów. Tuż przed tą transakcją firma XenSource wprowadziła nową wersję swojego flagowego produktu XenEnterprise opartego na jądrze Xen 4. Przejęcie spowodowało pewne zamieszanie w branży IT, ponieważ Xen jest projektem typu open source, a jego technologie stanowią podstawę produktów komercyjnych takich dostawców jak , Sun, Red Hat i Novell. Nadal istnieje niepewność co do pozycji Citrix w przyszłej promocji Xen, w tym pod względem marketingowym. Premiera pierwszego produktu firmy opartego na technologii Xen, Citrix XenDesktop (do wirtualizacji komputerów PC), planowana jest na pierwszą połowę 2008 roku. Oczekuje się wówczas wprowadzenia zaktualizowanej wersji XenServer.

W listopadzie 2007 roku firma Oracle ogłosiła swoje wejście na rynek wirtualizacji, wprowadzając oprogramowanie o nazwie Oracle VM do wirtualizacji aplikacji serwerowych tej korporacji oraz innych producentów. Nowe rozwiązanie obejmuje komponent oprogramowania serwerowego typu open source oraz zintegrowaną konsolę zarządzania opartą na przeglądarce, służącą do tworzenia i zarządzania wirtualnymi pulami serwerów działających w systemach opartych na architekturach x86 i x86-64. Eksperci postrzegali to jako niechęć Oracle do wspierania użytkowników, którzy uruchamiają jej produkty w środowiskach wirtualnych innych producentów. Wiadomo, że rozwiązanie Oracle VM realizowane jest w oparciu o hypervisor Xen. Wyjątkowość tego posunięcia Oracle polega na tym, że wydaje się, że po raz pierwszy w historii wirtualizacji komputerów technologia jest faktycznie dostosowana nie do środowiska operacyjnego, ale do konkretnych aplikacji.

Rynek wirtualizacji oczami IDC

Rynek wirtualizacji architektury x86 jest w fazie szybkiego rozwoju, a jego struktura nie została jeszcze ustalona. Utrudnia to ocenę jego wskaźników bezwzględnych i analizę porównawczą prezentowanych tutaj produktów. Tezę tę potwierdza opublikowany w listopadzie ubiegłego roku raport IDC „Enterprise Virtualization Software: Customer Needs and Strategies”. Najbardziej interesującą opcją w tym dokumencie jest opcja strukturyzowania oprogramowania do wirtualizacji serwerów, w której IDC identyfikuje cztery główne komponenty (rys. 5).

Platforma wirtualizacyjna. Opiera się na hypervisorze, a także podstawowych elementach zarządzania zasobami i interfejsie programowania aplikacji (API). Kluczowymi cechami są liczba gniazd i procesorów obsługiwanych przez jedną maszynę wirtualną, liczbę gości dostępnych w ramach jednej licencji oraz zakres obsługiwanych systemów operacyjnych.

Zarządzanie maszynami wirtualnymi. Zawiera narzędzia do zarządzania oprogramowaniem hosta i serwerami wirtualnymi. Oto obecnie najbardziej zauważalne różnice w ofertach dostawców, zarówno pod względem składu funkcji, jak i skalowania. IDC ma jednak pewność, że możliwości narzędzi wiodących dostawców szybko się wyrównają, a serwery fizyczne i wirtualne będą zarządzane za pomocą jednego interfejsu.

Infrastruktura maszyn wirtualnych. Szeroka gama dodatkowych narzędzi realizujących zadania takie jak migracja oprogramowania, automatyczny restart, równoważenie obciążenia maszyn wirtualnych itp. Według IDC to właśnie możliwości tego oprogramowania będą miały decydujący wpływ na wybór dostawców przez klientów i to właśnie on na poziomie tych narzędzi będzie toczyć się walka pomiędzy dostawcami.

Rozwiązania wirtualizacyjne. Zestaw produktów umożliwiających powiązanie powyższych kluczowych technologii z określonymi typami aplikacji i procesami biznesowymi.

W ramach ogólnej analizy sytuacji rynkowej IDC wyróżnia trzy obozy uczestników. Pierwszy podział występuje pomiędzy tymi, którzy wirtualizują na najwyższym poziomie systemu operacyjnego (SWsoft i Sun) i na najniższym poziomie systemu operacyjnego (VMware, XenSource, Virtual Iron, Red Hat, Microsoft, Novell). Pierwsza opcja pozwala na stworzenie najbardziej efektywnych rozwiązań pod względem wydajności i dodatkowych kosztów zasobów, ale wdrażając jedynie jednorodne środowiska obliczeniowe. Drugi umożliwia uruchomienie kilku systemów operacyjnych różnych typów na jednym komputerze. W ramach drugiej grupy IDC rysuje kolejną linię oddzielającą dostawców samodzielnych produktów do wirtualizacji (VMware, XenSource, Virtual Iron) od producentów systemów operacyjnych zawierających narzędzia do wirtualizacji (Microsoft, Red Hat, Novell).

Z naszego punktu widzenia struktura rynku zaproponowana przez IDC nie jest zbyt dokładna. Po pierwsze, z jakiegoś powodu IDC nie podkreśla obecności dwóch zasadniczo różnych typów maszyn wirtualnych - korzystających z systemu operacyjnego hosta (VMware, Virtual Iron, Microsoft) i hiperwizora (VMware, XenSource, Red Hat, Microsoft, Novell). Po drugie, jeśli mówimy o hypervisorze, warto rozróżnić tych, którzy korzystają z własnych podstawowych technologii (VMware, XenSource, Virtual Iron, Microsoft) od tych, którzy licencjonują innych (Red Hat, Novell). I na koniec trzeba powiedzieć, że SWsoft i Sun mają w swoim arsenale nie tylko technologie wirtualizacji na poziomie systemu operacyjnego, ale także narzędzia do obsługi maszyn wirtualnych.

Adnotacja: Technologie informacyjne wniosły wiele przydatnych i interesujących rzeczy do życia współczesnego społeczeństwa. Każdego dnia pomysłowi i utalentowani ludzie wymyślają coraz więcej nowych aplikacji dla komputerów jako skutecznych narzędzi do produkcji, rozrywki i współpracy. Wiele różnorodnego oprogramowania i sprzętu, technologii i usług pozwala nam na co dzień poprawiać wygodę i szybkość pracy z informacjami. Coraz trudniej jest wyodrębnić naprawdę przydatne technologie z strumienia technologii, które na nas spadają i nauczyć się z nich korzystać z maksymalnymi korzyściami. W tym wykładzie omówiona zostanie kolejna niezwykle obiecująca i naprawdę skuteczna technologia, która szybko wkracza do świata komputerów - technologia wirtualizacji, która zajmuje kluczowe miejsce w koncepcji chmury obliczeniowej.

Celem wykładu jest uzyskanie informacji o technologiach wirtualizacyjnych, terminologii, rodzajach i głównych zaletach wirtualizacji. Zapoznaj się z głównymi rozwiązaniami wiodących dostawców IT. Rozważ funkcje platformy wirtualizacyjnej Microsoft.

Technologie wirtualizacji

Według statystyk średni poziom wykorzystania mocy procesora w przypadku serwerów z systemem Windows nie przekracza 10%, w przypadku systemów Unix wskaźnik ten jest lepszy, ale mimo to średnio nie przekracza 20%. Niską efektywność wykorzystania serwerów tłumaczy się podejściem „jedna aplikacja – jeden serwer”, szeroko stosowanym od początku lat 90., czyli za każdym razem, gdy firma kupuje nowy serwer w celu wdrożenia nowej aplikacji. Oczywiście w praktyce oznacza to szybki wzrost parku serwerów i w konsekwencji wzrost jego kosztów. administracja, Zużycie energii i chłodzenia, a także konieczność posiadania dodatkowych pomieszczeń w celu instalowania coraz większej liczby serwerów i zakupu licencji na serwerowy system operacyjny.

Wirtualizacja zasobów serwera fizycznego pozwala na elastyczną dystrybucję ich pomiędzy aplikacjami, z których każda „widzi” tylko przydzielone jej zasoby i „uważa”, że został jej przydzielony odrębny serwer, czyli w tym przypadku „jeden serwer – kilka „aplikacji” jest wdrażane, ale bez zmniejszania wydajności, dostępności i bezpieczeństwa aplikacji serwerowych. Ponadto rozwiązania wirtualizacyjne umożliwiają uruchamianie na partycjach różnych systemów operacyjnych poprzez emulację ich wywołań systemowych do zasobów sprzętowych serwera.


Ryż. 2.1.

Wirtualizacja opiera się na zdolności jednego komputera do wykonywania pracy kilku komputerów poprzez dystrybucję jego zasobów pomiędzy wiele środowisk. Dzięki wirtualnym serwerom i wirtualnym pulpitom możesz hostować wiele systemów operacyjnych i wiele aplikacji w jednej lokalizacji. Tym samym ograniczenia fizyczne i geograficzne przestają mieć jakiekolwiek znaczenie. Oprócz oszczędności energii i redukcji kosztów poprzez bardziej efektywne wykorzystanie zasobów sprzętowych, infrastruktura wirtualna zapewnia wysoki poziom dostępności zasobów, bardziej wydajne zarządzanie, zwiększone bezpieczeństwo i ulepszone odtwarzanie po awarii.

W szerokim znaczeniu koncepcja wirtualizacji polega na ukrywaniu rzeczywistej implementacji procesu lub obiektu przed jego prawdziwą reprezentacją dla tego, kto z niego korzysta. Produkt wirtualizacji to coś wygodnego w użyciu, w rzeczywistości mającego bardziej złożoną lub zupełnie inną strukturę, odmienną od tej, która jest postrzegana podczas pracy z obiektem. Innymi słowy, istnieje oddzielenie reprezentacji od realizacji czegoś. Wirtualizacja ma na celu abstrakcję oprogramowanie ze sprzętu.

W technologii komputerowej termin „wirtualizacja” zwykle odnosi się do abstrakcji zasobów obliczeniowych i udostępnienia użytkownikowi systemu, który „hermetyzuje” (ukrywa) własną implementację. Mówiąc najprościej, użytkownik pracuje z wygodną reprezentacją obiektu i nie ma dla niego znaczenia, jak obiekt jest zbudowany w rzeczywistości.

W dzisiejszych czasach możliwość uruchomienia wielu maszyn wirtualnych na jednej maszynie fizycznej cieszy się dużym zainteresowaniem wśród informatyków, nie tylko ze względu na zwiększenie elastyczności infrastruktury IT, ale także dlatego, że wirtualizacja faktycznie pozwala zaoszczędzić pieniądze.

Historia rozwoju technologii wirtualizacyjnych sięga ponad czterdziestu lat. IBM jako pierwszy pomyślał o stworzeniu wirtualnych środowisk do różnych zadań użytkownika, jeszcze wtedy na komputerach typu mainframe. W latach 60-tych ubiegłego wieku wirtualizacja miała charakter czysto naukowy i była oryginalnym rozwiązaniem izolowania systemów komputerowych w ramach jednego fizycznego komputera. Po pojawieniu się komputerów osobistych zainteresowanie wirtualizacją nieco osłabło ze względu na szybki rozwój systemów operacyjnych, które stawiały odpowiednie wymagania ówczesnemu sprzętowi. Jednak szybki wzrost mocy sprzętu komputerowego pod koniec lat dziewięćdziesiątych ubiegłego wieku zmusił społeczność IT do ponownego przypomnienia technologii wirtualizacji platform programowych.

W 1999 roku firma VMware wprowadziła technologię wirtualizacji systemów opartą na architekturze x86 jako skuteczny sposób przekształcania systemów opartych na architekturze x86 w pojedynczą, specjalnie zbudowaną infrastrukturę sprzętową ogólnego użytku, która zapewnia pełną izolację, przenośność i szeroki wybór systemów operacyjnych dla aplikacji środowiska. Firma VMware jako jedna z pierwszych poważnie postawiła wyłącznie na wirtualizację. Jak czas pokazał, okazało się to w pełni uzasadnione. Obecnie WMware oferuje wszechstronną platformę wirtualizacyjną czwartej generacji, VMware vSphere 4, która zawiera narzędzia zarówno dla indywidualnych komputerów PC, jak i centrum danych. Kluczowym komponentem tego pakietu oprogramowania jest hypervisor VMware ESX Server. Później do „walki” o miejsce w tym modnym kierunku rozwoju technologii informatycznych włączyły się później takie firmy jak Parallels (dawniej SWsoft), Oracle (Sun Microsystems), Citrix Systems (XenSourse).

Microsoft wszedł na rynek wirtualizacji w 2003 roku wraz z przejęciem firmy Connectix, wypuszczając swój pierwszy produkt, Virtual PC, dla komputerów stacjonarnych. Od tego czasu konsekwentnie zwiększała gamę ofert w tym obszarze i dziś prawie zakończyła tworzenie platformy wirtualizacyjnej, w skład której wchodzą takie rozwiązania jak Windows 2008 Server R2 z komponentem Hyper-V, Microsoft Application Virtualization (App-v) , Infrastruktura pulpitu wirtualnego Microsoft (VDI), Usługi pulpitu zdalnego, Menedżer maszyn wirtualnych System Center.

Obecnie dostawcy technologii wirtualizacji oferują niezawodne i łatwe w zarządzaniu platformy, a rynek tych technologii kwitnie. Według czołowych ekspertów wirtualizacja jest obecnie jedną z trzech najbardziej obiecujących technologii komputerowych. Wielu ekspertów przewiduje, że do 2015 roku około połowa wszystkich systemów komputerowych będzie wirtualna.

Wzmożone obecnie zainteresowanie technologiami wirtualizacyjnymi nie jest przypadkowe. Moc obliczeniowa obecnych procesorów szybko rośnie i pytanie nie brzmi nawet, na co tę moc wydać, ale fakt, że współczesna „moda” na układy dwurdzeniowe i wielordzeniowe, która przeniknęła już do komputerów osobistych ( laptopy i komputery stacjonarne), nie mogło być lepiej, pozwala wykorzystać najbogatszy potencjał pomysłów na wirtualizację systemów operacyjnych i aplikacji, przenosząc łatwość obsługi komputera na nowy poziom jakościowy. Technologie wirtualizacyjne stają się jednym z kluczowych komponentów (w tym marketingowych) w najnowszych i przyszłych procesorach Intela i AMD, w systemach operacyjnych Microsoftu i szeregu innych firm.

Korzyści z wirtualizacji

Oto główne zalety technologii wirtualizacji:

  1. Efektywne wykorzystanie zasobów obliczeniowych. Zamiast 3, a nawet 10 serwerów obciążonych na 5-20%, możesz użyć jednego, wykorzystywanego na 50-70%. Między innymi pozwala to również na oszczędność energii, a także znaczne ograniczenie inwestycji finansowych: kupowany jest jeden zaawansowany technologicznie serwer, który pełni funkcje 5-10 serwerów. Wirtualizacja może znacznie efektywniej wykorzystać zasoby, ponieważ łączy standardowe zasoby infrastruktury i przezwycięża ograniczenia starszego modelu „jedna aplikacja na serwer”.
  2. Obniżenie kosztów infrastruktury: Wirtualizacja zmniejsza liczbę serwerów i powiązanego sprzętu IT w centrum danych. W rezultacie wymagania dotyczące konserwacji, zasilania i chłodzenia zasobów są zmniejszone, a na IT wydaje się znacznie mniej pieniędzy.
  3. Obniżone koszty oprogramowania. Niektórzy producenci oprogramowania wprowadzili osobne schematy licencjonowania specjalnie dla środowisk wirtualnych. Zatem przykładowo kupując jedną licencję na Microsoft Windows Server 2008 Enterprise zyskujesz prawo do jednoczesnego korzystania z niej na 1 serwerze fizycznym i 4 wirtualnych (w ramach jednego serwera), a Windows Server 2008 Datacenter licencjonowany jest tylko na liczbę procesorów i może być używany jednocześnie na nieograniczonej liczbie procesorów.liczba serwerów wirtualnych.
  4. Zwiększona elastyczność i responsywność systemu: Wirtualizacja oferuje nową metodę zarządzania infrastrukturą IT i pomaga administratorom IT spędzać mniej czasu na powtarzalnych zadaniach, takich jak udostępnianie, konfiguracja, monitorowanie i konserwacja. Wielu administratorów systemów doświadczyło problemów w przypadku awarii serwera. A nie da się wyjąć dysku twardego, przenieść go na inny serwer i zacząć wszystkiego jak wcześniej... A co z instalacją? wyszukiwanie sterowników, konfiguracja, uruchamianie... a wszystko to wymaga czasu i zasobów. W przypadku korzystania z serwera wirtualnego możliwe jest natychmiastowe uruchomienie na dowolnym sprzęcie, a jeśli takiego serwera nie ma, można pobrać gotową maszynę wirtualną z zainstalowanym i skonfigurowanym serwerem z bibliotek obsługiwanych przez firmy tworzące hypervisory (programy do wirtualizacji) .
  5. Niekompatybilne aplikacje mogą działać na tym samym komputerze. Korzystając z wirtualizacji na jednym serwerze, istnieje możliwość zainstalowania serwerów Linux i Windows, bramek, baz danych i innych aplikacji, które są całkowicie niekompatybilne w ramach tego samego niezwirtualizowanego systemu.
  6. Zwiększ dostępność aplikacji i zapewnij ciągłość działania: Dzięki niezawodnemu tworzeniu kopii zapasowych i migracji całych środowisk wirtualnych bez przerw w świadczeniu usług możesz skrócić planowane przestoje i zapewnić szybkie przywrócenie systemu w sytuacjach krytycznych. „Upadek” jednego serwera wirtualnego nie powoduje utraty pozostałych serwerów wirtualnych. Dodatkowo w przypadku awarii jednego serwera fizycznego istnieje możliwość automatycznego zastąpienia go serwerem zapasowym. Co więcej, dzieje się to niezauważone przez użytkowników bez ponownego uruchamiania. Zapewnia to ciągłość działania.
  7. Łatwe opcje archiwizacji. Ponieważ dysk twardy maszyny wirtualnej jest zwykle reprezentowany jako plik o określonym formacie znajdujący się na jakimś nośniku fizycznym, wirtualizacja umożliwia proste skopiowanie tego pliku na nośnik kopii zapasowej w celu archiwizacji i utworzenia kopii zapasowej całej maszyny wirtualnej. Kolejną świetną funkcją jest możliwość całkowitego przywrócenia serwera z archiwum. Możesz też podnieść serwer z archiwum bez niszczenia bieżącego serwera i zobaczyć stan rzeczy w ostatnim okresie.
  8. Zwiększenie możliwości zarządzania infrastrukturą: zastosowanie scentralizowanego zarządzania infrastrukturą wirtualną pozwala skrócić czas administrowania serwerami, zapewnia równoważenie obciążenia i migrację „na żywo” maszyn wirtualnych.

Maszyna wirtualna nazwiemy środowisko oprogramowania lub sprzętu, które ukrywa rzeczywistą implementację procesu lub obiektu przed jego widoczną reprezentacją.

to całkowicie izolowany kontener oprogramowania, na którym działa własny system operacyjny i aplikacje, podobnie jak fizyczny komputer. Maszyna wirtualna działa jak komputer fizyczny i zawiera własną wirtualną (tj. programową) pamięć RAM, dysk twardy i kartę sieciową.

System operacyjny nie potrafi rozróżnić maszyn wirtualnych od fizycznych. To samo można powiedzieć o aplikacjach i innych komputerach w sieci. Nawet ona sama maszyna wirtualna uważa się za „prawdziwy” komputer. Mimo to maszyny wirtualne składają się wyłącznie z komponentów oprogramowania i nie obejmują sprzętu. Daje im to szereg unikalnych zalet w porównaniu ze sprzętem fizycznym.


Ryż. 2.2.

Przyjrzyjmy się bardziej szczegółowo głównym funkcjom maszyn wirtualnych:

  1. Zgodność. Maszyny wirtualne są ogólnie kompatybilne ze wszystkimi standardowymi komputerami. Podobnie jak komputer fizyczny, maszyna wirtualna obsługuje własny system operacyjny gościa i własne aplikacje. Zawiera także wszystkie standardowe komponenty komputera fizycznego (płyta główna, karta graficzna, kontroler sieciowy itp.). Dlatego maszyny wirtualne są w pełni kompatybilne ze wszystkimi standardowymi systemami operacyjnymi, aplikacjami i sterownikami urządzeń. Na maszynie wirtualnej można uruchomić dowolne oprogramowanie odpowiednie dla odpowiedniego komputera fizycznego.
  2. Izolacja. Maszyny wirtualne są od siebie całkowicie odizolowane, tak jakby były komputerami fizycznymi.Maszyny wirtualne mogą dzielić zasoby fizyczne jednego komputera, a jednocześnie pozostawać od siebie całkowicie odizolowane, jakby były oddzielnymi maszynami fizycznymi. Na przykład, jeśli na jednym serwerze fizycznym działają cztery maszyny wirtualne i jedna z nich ulegnie awarii, nie ma to wpływu na dostępność pozostałych trzech maszyn. Izolacja jest ważnym powodem, dla którego aplikacje działające w środowisku wirtualnym są znacznie bardziej dostępne i bezpieczne niż aplikacje działające w standardowym, niezwirtualizowanym systemie.
  3. Kapsułkowanie. Maszyny wirtualne całkowicie hermetyzują środowisko komputerowe. Maszyna wirtualna to kontener oprogramowania, który łączy lub „hermetyzuje” kompletny zestaw wirtualnych zasobów sprzętowych, a także system operacyjny i wszystkie jego aplikacje w pakiecie oprogramowania. Enkapsulacja sprawia, że ​​maszyny wirtualne są niezwykle mobilne i łatwe w zarządzaniu. Na przykład maszynę wirtualną można przenosić lub kopiować z jednej lokalizacji do drugiej, tak jak każdy inny plik programu. Ponadto maszynę wirtualną można przechowywać na dowolnym standardowym nośniku danych: od kompaktowej karty pamięci flash USB po korporacyjne sieci pamięci masowej.
  4. Niezależność sprzętowa. Maszyny wirtualne są całkowicie niezależne od podstawowego sprzętu fizycznego, na którym działają. Na przykład w przypadku maszyny wirtualnej z komponentami wirtualnymi (procesor, karta sieciowa, kontroler SCSI) można skonfigurować ustawienia, które całkowicie różnią się od cech fizycznych podstawowego sprzętu. Maszyny wirtualne mogą nawet uruchamiać różne systemy operacyjne (Windows, Linux itp.) na tym samym serwerze fizycznym. W połączeniu z właściwościami enkapsulacji i kompatybilności niezależność sprzętowa zapewnia możliwość swobodnego przenoszenia maszyn wirtualnych z jednego komputera z procesorem x86 na drugi bez zmiany sterowników urządzeń, systemu operacyjnego lub aplikacji. Niezależność sprzętowa umożliwia także uruchomienie kombinacji zupełnie różnych systemów operacyjnych i aplikacji na jednym fizycznym komputerze.

Przyjrzyjmy się głównym typom wirtualizacji, takim jak:

  • wirtualizacja serwerów (wirtualizacja pełna i parawirtualizacja)
  • wirtualizacja na poziomie systemu operacyjnego,
  • wirtualizacja aplikacji,
  • wirtualizacja prezentacji.

Tylko leniwi ludzie nigdy nie słyszeli dziś o wirtualizacji. Nie będzie przesadą stwierdzenie, że dziś jest to jeden z głównych trendów w rozwoju IT. Jednak wielu administratorów nadal ma bardzo fragmentaryczną i rozproszoną wiedzę na ten temat, błędnie wierząc, że wirtualizacja jest dostępna tylko dla dużych firm. Biorąc pod uwagę aktualność tematu, postanowiliśmy stworzyć nowy dział i rozpocząć cykl artykułów na temat wirtualizacji.

Co to jest wirtualizacja?

Wirtualizacja jest dziś bardzo szeroką i różnorodną koncepcją, ale nie będziemy dziś rozważać wszystkich jej aspektów, wykracza to daleko poza zakres tego artykułu. Tym, którzy dopiero zapoznają się z tą technologią, wystarczy uproszczony model, dlatego staraliśmy się maksymalnie uprościć i uogólnić ten materiał, bez wchodzenia w szczegóły wdrożenia na konkretnej platformie.

Czym więc jest wirtualizacja? Jest to możliwość uruchomienia kilku odizolowanych od siebie maszyn wirtualnych na jednym fizycznym komputerze, z których każda będzie „myśleć”, że działa na osobnym fizycznym komputerze PC. Rozważ następujący diagram:

Specjalne oprogramowanie działa na prawdziwym sprzęcie - hiperwizor(lub monitor maszyny wirtualnej), który zapewnia emulację sprzętu wirtualnego i interakcję maszyn wirtualnych ze sprzętem rzeczywistym. Odpowiada także za komunikację pomiędzy wirtualnymi komputerami PC a środowiskiem rzeczywistym poprzez sieć, udostępnione foldery, udostępniony schowek itp.

Hiperwizor może pracować bezpośrednio na sprzęcie lub na poziomie systemu operacyjnego; istnieją również implementacje hybrydowe, które działają na specjalnie skonfigurowanym systemie operacyjnym w minimalnej konfiguracji.

Za pomocą hypervisora ​​tworzone są maszyny wirtualne, dla których emulowany jest minimalny wymagany zestaw sprzętu wirtualnego i dostęp do współdzielonych zasobów głównego komputera, tzw. gospodarz Każda maszyna wirtualna, podobnie jak zwykły komputer PC, zawiera własną instancję systemu operacyjnego i oprogramowania aplikacyjnego, a dalsza interakcja z nimi nie różni się od pracy ze zwykłym komputerem PC lub serwerem.

Jak zbudowana jest maszyna wirtualna?

Pomimo pozornej złożoności maszyna wirtualna (VM) to po prostu folder z plikami; w zależności od konkretnej implementacji ich zestaw i liczba może się różnić, ale każda VM opiera się na tym samym minimalnym zestawie plików; obecność reszty jest nie krytyczne.

Najważniejszy jest plik wirtualnego dysku twardego, którego utrata jest równoznaczna z awarią dysku twardego zwykłego komputera PC. Drugim najważniejszym jest plik konfiguracyjny maszyny wirtualnej, który zawiera opis sprzętu maszyny wirtualnej oraz przydzielonych jej zasobów hosta współdzielonego. Do takich zasobów zalicza się na przykład pamięć wirtualna, która jest wydzielonym obszarem pamięci współdzielonej hosta.

W zasadzie utrata pliku konfiguracyjnego nie jest krytyczna, mając tylko jeden plik wirtualnego dysku twardego, możesz uruchomić maszynę wirtualną, tworząc jej konfigurację od nowa. Podobnie jak posiadanie tylko jednego dysku twardego, możesz podłączyć go do innego komputera o podobnej konfiguracji i otrzymać w pełni funkcjonalną maszynę.

Ponadto folder na maszynie wirtualnej może zawierać inne pliki, ale nie są one krytyczne, choć ich utrata również może być niepożądana (na przykład migawki umożliwiające przywrócenie stanu wirtualnego komputera).

Korzyści z wirtualizacji

W zależności od przeznaczenia dzieli się wirtualizację komputerów stacjonarnych i serwerów. Pierwsza służy głównie do celów szkoleniowych i testowych. Teraz, aby przestudiować jakąś technologię lub przetestować wdrożenie dowolnej usługi w sieci korporacyjnej, wystarczy dość potężne narzędzia do wirtualizacji komputerów i komputerów stacjonarnych. Liczba maszyn wirtualnych, jakie możesz posiadać w swoim wirtualnym laboratorium, ograniczona jest jedynie wielkością dysku, natomiast liczba jednocześnie działających maszyn ograniczona jest głównie ilością dostępnej pamięci RAM.

Na poniższym rysunku okno narzędzia do wirtualizacji pulpitu z naszego laboratorium testowego, na którym działa system Windows 8.

Wizualizacja serwerów jest szeroko stosowana w infrastrukturze IT dowolnego poziomu i pozwala na wykorzystanie jednego serwera fizycznego do uruchomienia kilku serwerów wirtualnych. Zalety tej technologii są oczywiste:

Optymalne wykorzystanie zasobów obliczeniowych

Nie jest tajemnicą, że moc obliczeniowa nawet serwerów podstawowych i przeciętnych komputerów PC jest nadmierna w przypadku wielu zadań i ról serwerowych i nie jest w pełni wykorzystywana. Zwykle rozwiązuje się to poprzez dodanie dodatkowych ról serwera, jednak takie podejście znacznie komplikuje administrację serwerem i zwiększa prawdopodobieństwo awarii. Wirtualizacja pozwala bezpiecznie korzystać z bezpłatnych zasobów obliczeniowych poprzez przydzielenie własnego serwera do każdej krytycznej roli. Teraz, aby przeprowadzić konserwację, powiedzmy, serwera WWW, nie trzeba zatrzymywać serwera bazy danych

Oszczędzanie zasobów fizycznych

Korzystanie z jednego fizycznego serwera zamiast kilku pozwala skutecznie zaoszczędzić energię, miejsce w serwerowni i koszty związanej z nią infrastruktury. Jest to szczególnie ważne dla małych firm, które mogą znacznie obniżyć koszty wynajmu ze względu na zmniejszenie fizycznych rozmiarów sprzętu, np. nie ma konieczności posiadania dobrze wentylowanej serwerowni z klimatyzacją.

Większa skalowalność i rozszerzalność infrastruktury

W miarę rozwoju przedsiębiorstwa coraz ważniejsza staje się możliwość szybkiego i bez znacznych kosztów zwiększenia mocy obliczeniowej przedsiębiorstwa. Zazwyczaj sytuacja ta polega na wymianie serwerów na mocniejsze, a następnie migracji ról i usług ze starych serwerów na nowe. Przeprowadzenie takiego przejścia bez awarii, przestojów (w tym planowych) i różnego rodzaju „okresów przejściowych” jest prawie niemożliwe, co sprawia, że ​​każda taka rozbudowa to mała awaria dla firmy i administratorów, którzy często zmuszeni są pracować w nocy i w nocy weekendy.

Wirtualizacja pozwala nam rozwiązać ten problem znacznie efektywniej. Jeśli dostępne są wolne zasoby obliczeniowe hosta, możesz łatwo dodać je do wybranej maszyny wirtualnej, na przykład zwiększając ilość dostępnej pamięci lub dodając rdzenie procesorów. Jeśli konieczne jest większe zwiększenie wydajności, tworzony jest nowy host na mocniejszym serwerze, na który przenoszona jest maszyna wirtualna potrzebująca zasobów.

Przestój w tej sytuacji jest bardzo krótki i sprowadza się do czasu potrzebnego na skopiowanie plików VM z jednego serwera na drugi. Ponadto wiele nowoczesnych hypervisorów zawiera funkcję „migracji na żywo”, która umożliwia przenoszenie maszyn wirtualnych między hostami bez ich zatrzymywania.

Zwiększona tolerancja na błędy

Być może fizyczna awaria serwera to jeden z najbardziej nieprzyjemnych momentów w pracy administratora systemu. Sytuację komplikuje fakt, że fizyczna instancja systemu operacyjnego prawie zawsze jest zależna od sprzętu, co uniemożliwia szybkie uruchomienie systemu na innym sprzęcie. Maszyny wirtualne nie mają tej wady, w przypadku awarii serwera hosta wszystkie maszyny wirtualne są szybko i bezproblemowo przenoszone na inny, działający serwer.

W tym przypadku różnice w sprzęcie serwerów nie odgrywają żadnej roli, można pobrać maszyny wirtualne z serwera na platformie Intel i pomyślnie uruchomić je kilka minut później na nowym hoście działającym na platformie AMD.

Ta sama okoliczność pozwala na tymczasowe odstawienie serwerów do konserwacji lub wymianę sprzętu bez zatrzymywania działających na nich maszyn wirtualnych; wystarczy tymczasowo przenieść je na inny host.

Możliwość obsługi starszych systemów operacyjnych

Pomimo ciągłego postępu i wydawania nowych wersji oprogramowania, sektor korporacyjny często w dalszym ciągu korzysta z przestarzałych wersji oprogramowania, czego dobrym przykładem jest 1C:Enterprise 7.7. Wirtualizacja pozwala na zintegrowanie takiego oprogramowania z nowoczesną infrastrukturą bez dodatkowych kosztów, może być przydatna również wtedy, gdy zepsuł się stary komputer PC z przestarzałym systemem operacyjnym i nie da się go uruchomić na nowoczesnym sprzęcie. Hiperwizor pozwala emulować zestaw przestarzałego sprzętu, aby zapewnić kompatybilność ze starszymi systemami operacyjnymi, a specjalne narzędzia pozwalają przenieść system fizyczny do środowiska wirtualnego bez utraty danych.

Sieci wirtualne

Trudno wyobrazić sobie nowoczesny komputer PC bez jakiegoś połączenia sieciowego. Dlatego nowoczesne technologie wirtualizacyjne umożliwiają wirtualizację nie tylko komputerów, ale także sieci. Podobnie jak zwykły komputer, maszyna wirtualna może mieć jedną lub więcej kart sieciowych, które można podłączyć do sieci zewnętrznej, poprzez jeden z fizycznych interfejsów sieciowych hosta lub do jednej z sieci wirtualnych. Sieć wirtualna to wirtualny przełącznik sieciowy, do którego podłączone są karty sieciowe maszyn wirtualnych. W razie potrzeby w takiej sieci za pomocą hypervisora ​​można wdrożyć usługi DHCP i NAT, aby uzyskać dostęp do Internetu za pośrednictwem połączenia internetowego hosta.

Możliwości sieci wirtualnych pozwalają na tworzenie dość skomplikowanych konfiguracji sieciowych nawet w obrębie tego samego hosta; spójrzmy na przykład na poniższy diagram:

Host jest podłączony do sieci zewnętrznej za pomocą fizycznej karty sieciowej LAN0, maszyna wirtualna VM5 jest podłączona do sieci zewnętrznej za pośrednictwem tego samego interfejsu fizycznego za pośrednictwem karty sieciowej Sieć LAN maszyny wirtualnej 0. W przypadku innych maszyn w sieci zewnętrznej host i VM5 to dwa różne komputery, każdy z nich ma swój własny adres sieciowy, własną kartę sieciową z własnym adresem MAC. Druga karta sieciowa VM5 jest podłączona do przełącznika wirtualnego sieci wirtualnej Sieć wirtualna 1, podłączone są do niego także karty sieciowe maszyn wirtualnych VM1-VM4. Tym samym w ramach jednego fizycznego hosta zorganizowaliśmy bezpieczną sieć wewnętrzną, która ma dostęp do sieci zewnętrznej jedynie poprzez router VM5.

W praktyce sieci wirtualne ułatwiają organizację kilku sieci o różnym poziomie bezpieczeństwa w ramach jednego fizycznego serwera, na przykład umieszczając potencjalnie niebezpieczne hosty w strefie DMZ bez dodatkowych kosztów za sprzęt sieciowy.

Migawki

Kolejna funkcja wirtualizacyjna, której przydatność jest trudna do przecenienia. Jej istota sprowadza się do tego, że w dowolnym momencie, nie przerywając pracy maszyny wirtualnej, można zapisać migawkę jej aktualnego stanu, a nawet więcej niż jedną. Dla nieskażonego administratora to po prostu swego rodzaju urlop, aby móc łatwo i szybko wrócić do pierwotnego stanu, jeśli coś nagle pójdzie nie tak. W przeciwieństwie do tworzenia obrazu dysku twardego, a następnie przywracania systemu za jego pomocą, co może zająć dużo czasu, przełączanie pomiędzy migawkami następuje w ciągu kilku minut.

Innym zastosowaniem snapshotów jest cel szkoleniowy i testowy, za ich pomocą można stworzyć całe drzewo stanów maszyny wirtualnej, mając możliwość szybkiego przełączania pomiędzy różnymi opcjami konfiguracyjnymi. Poniższy rysunek przedstawia drzewo obrazów routera z naszego laboratorium testowego, które doskonale znasz z naszych materiałów:

Wniosek

Pomimo tego, że staraliśmy się przedstawić jedynie krótki przegląd, artykuł okazał się dość długi. Jednocześnie mamy nadzieję, że dzięki temu materiałowi będziecie mogli naprawdę ocenić wszystkie możliwości, jakie zapewnia technologia wirtualizacji i w sposób wymowny, przedstawiając korzyści, jakie może uzyskać Państwa infrastruktura IT, zaczniecie studiować nasze nowe materiały i praktyczne wdrażanie wirtualizacja w codziennej praktyce.

W ostatnim czasie wiele różnych firm działających nie tylko w branży IT, ale także w innych obszarach, zaczęło poważnie podchodzić do technologii wirtualizacji. Użytkownicy domowi przekonali się również o niezawodności i wygodzie platform wirtualizacyjnych, które umożliwiają jednoczesne uruchamianie wielu systemów operacyjnych na maszynach wirtualnych. Zdaniem różnych badaczy rynku technologii informatycznych, technologie wirtualizacyjne należą obecnie do najbardziej obiecujących. Rynek platform wirtualizacyjnych i narzędzi do zarządzania obecnie dynamicznie rośnie, okresowo pojawiają się na nim nowi gracze, a proces przejęć małych firm tworzących oprogramowanie dla platform wirtualizacyjnych oraz narzędzia poprawiające efektywność wykorzystania infrastruktur wirtualnych trwa pełną parą przez dużych graczy.

Tymczasem wiele firm nie jest jeszcze gotowych na duże inwestycje w wirtualizację, gdyż nie potrafią dokładnie ocenić efektu ekonomicznego wprowadzenia tej technologii i nie posiadają odpowiednio wykwalifikowanej kadry. Jeśli w wielu krajach Zachodu są już profesjonalni konsultanci, którzy potrafią przeprowadzić analizę infrastruktury IT, przygotować plan wirtualizacji serwerów fizycznych firmy i ocenić opłacalność projektu, to w Rosji takich osób jest bardzo niewiele. Oczywiście w ciągu najbliższych lat sytuacja ulegnie zmianie i w momencie, gdy różne firmy docenią korzyści płynące z wirtualizacji, znajdą się specjaliści posiadający wystarczającą wiedzę i doświadczenie, aby wdrażać technologie wirtualizacyjne w różnej skali. Na chwilę obecną wiele firm prowadzi jedynie lokalne eksperymenty w wykorzystaniu narzędzi wirtualizacyjnych, korzystając głównie z darmowych platform.

Na szczęście wielu dostawców oprócz komercyjnych systemów wirtualizacji oferuje także bezpłatne platformy o ograniczonej funkcjonalności, dzięki czemu firmy mogą częściowo wykorzystać maszyny wirtualne w środowisku produkcyjnym przedsiębiorstwa i jednocześnie ocenić możliwość przejścia na poważne platformy. W sektorze komputerów stacjonarnych użytkownicy również zaczynają wykorzystywać maszyny wirtualne w swoich codziennych czynnościach i nie stawiają większych wymagań platformom wirtualizacyjnym. Dlatego przede wszystkim brane są pod uwagę wolne środki.

Liderzy platform wirtualizacyjnych

Rozwój narzędzi wirtualizacyjnych na różnych poziomach abstrakcji systemu trwa już od ponad trzydziestu lat. Jednak dopiero stosunkowo niedawno możliwości sprzętowe serwerów i komputerów stacjonarnych pozwoliły na poważne potraktowanie tej technologii w odniesieniu do wirtualizacji systemów operacyjnych. Tak się składa, że ​​od wielu lat zarówno różne firmy, jak i pasjonaci opracowują najróżniejsze narzędzia do wirtualizacji systemów operacyjnych, jednak nie wszystkie z nich są aktualnie aktywnie wspierane i są w stanie dopuszczalnym do efektywnego wykorzystania. Dziś liderami w produkcji narzędzi do wirtualizacji są VMware, Microsoft, SWSoft (wraz ze swoją firmą Parallels), XenSource, Virtual Iron i InnoTek. Oprócz produktów tych dostawców istnieją również takie rozwiązania, jak QEMU, Bosch i inne, a także narzędzia wirtualizacyjne dla twórców systemów operacyjnych (na przykład Solaris Containers), które nie są powszechnie stosowane i są używane przez wąski krąg specjalistów.

Firmy, które odniosły pewien sukces na rynku platform do wirtualizacji serwerów, dystrybuują część swoich produktów za darmo, opierając się nie na samych platformach, a na narzędziach do zarządzania, bez których trudno jest korzystać z maszyn wirtualnych na dużą skalę. Ponadto komercyjne platformy do wirtualizacji komputerów stacjonarnych przeznaczone do użytku przez specjalistów IT i firmy tworzące oprogramowanie mają znacznie większe możliwości niż ich bezpłatne odpowiedniki.

Jeśli jednak korzystasz z wirtualizacji serwerów na małą skalę, w sektorze SMB (Małe i Średnie Przedsiębiorstwa), darmowe platformy mogą z powodzeniem wypełnić niszę w środowisku produkcyjnym firmy i zapewnić znaczne oszczędności gotówkowe.

Kiedy korzystać z bezpłatnych platform

Jeśli nie potrzebujesz masowego wdrażania serwerów wirtualnych w organizacji, stałego monitorowania wydajności serwerów fizycznych przy zmiennym obciążeniu i wysokiego stopnia dostępności, możesz wykorzystać maszyny wirtualne oparte na darmowych platformach do obsługi wewnętrznych serwerów organizacji. Przy rosnącej liczbie serwerów wirtualnych i wysokim stopniu ich konsolidacji na platformach fizycznych, wymagane jest stosowanie potężnych narzędzi do zarządzania i utrzymywania infrastruktury wirtualnej. W zależności od tego, czy potrzebujesz korzystać z różnych systemów i sieci pamięci masowej, takich jak Storage Area Network (SAN), narzędzi do tworzenia kopii zapasowych i odzyskiwania po awarii oraz migracji na gorąco działających maszyn wirtualnych na inny sprzęt, możesz nie wystarczyć możliwościom darmowych platformy wirtualizacyjne należy jednak zaznaczyć, że platformy bezpłatne są stale aktualizowane i zyskują nowe funkcje, co poszerza zakres ich wykorzystania.

Kolejnym ważnym punktem jest wsparcie techniczne. Bezpłatne platformy wirtualizacyjne istnieją albo w społeczności Open Source, gdzie wielu entuzjastów rozwija produkt i wspiera go, albo są wspierane przez dostawcę platformy. Pierwsza opcja zakłada aktywne uczestnictwo użytkowników w rozwoju produktu, sporządzanie przez nich raportów o błędach i nie gwarantuje rozwiązania Twoich problemów podczas korzystania z platformy, w drugim przypadku najczęściej wsparcie techniczne nie jest w ogóle zapewniane . Dlatego kwalifikacje personelu wdrażającego bezpłatne platformy muszą być na wysokim poziomie.

Bezpłatne platformy do wirtualizacji komputerów stacjonarnych najlepiej nadają się do izolowania środowisk użytkowników, oddzielania ich od określonego sprzętu, do celów edukacyjnych, do badania systemów operacyjnych i do bezpiecznego testowania różnych programów. Jest mało prawdopodobne, aby bezpłatne platformy desktopowe były wykorzystywane na dużą skalę do tworzenia lub testowania oprogramowania w firmach zajmujących się oprogramowaniem, ponieważ nie mają one do tego wystarczającej funkcjonalności. Jednak do użytku domowego bezpłatne produkty do wirtualizacji są całkiem odpowiednie, a istnieją nawet przykłady, w których maszyny wirtualne oparte na bezpłatnych systemach wirtualizacji komputerów stacjonarnych są wykorzystywane w środowisku produkcyjnym.

Darmowe platformy do wirtualizacji serwerów

W niemal każdej organizacji korzystającej z infrastruktury serwerowej często istnieje potrzeba wykorzystania zarówno standardowych usług sieciowych (DNS, DHCP, Active Directory), jak i kilku serwerów wewnętrznych (aplikacje, bazy danych, portale korporacyjne), które nie są obciążone dużym obciążeniem i są rozproszone pomiędzy różne serwery fizyczne. Serwery te można połączyć w kilka maszyn wirtualnych na jednym hoście fizycznym. Jednocześnie upraszcza się proces migracji serwerów z jednej platformy sprzętowej na drugą, zmniejsza koszty sprzętu, upraszcza procedurę tworzenia kopii zapasowych i zwiększa łatwość zarządzania. W zależności od typów systemów operacyjnych, na których uruchamiane są usługi sieciowe oraz wymagań stawianych systemowi wirtualizacji, można wybrać odpowiedni darmowy produkt dla środowiska korporacyjnego. Przy wyborze platformy do wirtualizacji serwerów należy wziąć pod uwagę cechy wydajnościowe (zależne są one zarówno od zastosowanej technologii wirtualizacji, jak i od jakości wdrożenia poszczególnych komponentów platformy producentów), łatwość wdrożenia, możliwość skalowania infrastrukturę wirtualną oraz dostępność dodatkowych narzędzi do zarządzania, konserwacji i monitorowania.


Projekt jest platformą wirtualizacyjną typu open source, opracowaną przez społeczność niezależnych programistów wspieranych przez SWSoft. Produkt rozpowszechniany jest na licencji GNU GPL. Rdzeń platformy OpenVZ stanowi część produktu Virtuozzo, komercyjnego produktu firmy SWSoft, który ma większe możliwości niż OpenVZ. Obydwa produkty korzystają z autorskiej techniki wirtualizacji: wirtualizacji na poziomie instancji systemu operacyjnego. Ta metoda wirtualizacji ma mniejszą elastyczność w porównaniu z pełną wirtualizacją (można uruchamiać tylko systemy operacyjne Linux, ponieważ dla wszystkich środowisk wirtualnych używane jest jedno jądro), ale pozwala osiągnąć minimalne straty wydajności (około 1-3 procent). Systemów, na których działa OpenVZ, nie można nazwać pełnoprawnymi maszynami wirtualnymi; są to raczej środowiska wirtualne (Virtual Environments, VE), w których nie emuluje się komponentów sprzętowych. Takie podejście pozwala jedynie na instalowanie różnych dystrybucji Linuksa jako środowisk wirtualnych na tym samym serwerze fizycznym. Co więcej, każde ze środowisk wirtualnych posiada własne drzewa procesów, biblioteki systemowe i użytkowników oraz może na swój sposób wykorzystywać interfejsy sieciowe.

Środowiska wirtualne wydają się użytkownikom i działającym w nich aplikacjom niemal całkowicie izolowanymi środowiskami, którymi można zarządzać niezależnie od innych środowisk. Ze względu na te czynniki i wysoką wydajność, produkty OpenVZ i SWSoft Virtuozzo stały się najbardziej rozpowszechnione we wspieraniu wirtualnych serwerów prywatnych (VPS) w systemach hostingowych. W oparciu o OpenVZ możliwe jest udostępnienie klientom kilku dedykowanych serwerów wirtualnych opartych na tej samej platformie sprzętowej, z których na każdym można zainstalować inne aplikacje i które można restartować niezależnie od innych środowisk wirtualnych. Architekturę OpenVZ przedstawiono poniżej:

Część niezależnych ekspertów przeprowadziła analizę porównawczą wydajności serwerów wirtualnych opartych na komercyjnych platformach SWSoft Virtuozzo i VMware ESX Server do celów hostingowych i stwierdziła, że ​​Virtuozzo lepiej radzi sobie z tym zadaniem. Oczywiście platforma OpenVZ, na której zbudowano Virtuozzo, ma tę samą wysoką wydajność, ale brakuje jej zaawansowanego sterowania, jakie posiada Virtuozzo.

Środowisko OpenVZ doskonale nadaje się również do celów szkoleniowych, gdzie każdy może eksperymentować z własnym izolowanym środowiskiem bez narażania innych środowisk na tym hoście. Tymczasem wykorzystywanie platformy OpenVZ do innych celów w chwili obecnej nie jest wskazane ze względu na oczywistą sztywność rozwiązania wirtualizacyjnego na poziomie systemu operacyjnego.


Firma stosunkowo niedawno weszła na rynek platform wirtualizacyjnych, jednak szybko nawiązała walkę z tak poważnymi dostawcami platform serwerowych jak VMware, XenSource czy SWSoft. Produkty Virtual Iron opierają się na darmowym hypervisorze Xen, wspieranym przez społeczność Open Source Xen. Virtual Iron to platforma wirtualizacyjna nie wymagająca systemu operacyjnego hosta (tzw. platforma bare-metal) i przeznaczona do stosowania w dużych środowiskach korporacyjnych. Produkty Virtual Iron zapewniają wszystkie niezbędne narzędzia do tworzenia, zarządzania i integrowania maszyn wirtualnych ze środowiskiem produkcyjnym firmy. Virtual Iron obsługuje 32- i 64-bitowe systemy operacyjne gości i hostów, a także wirtualne SMP (Symmetric Multi Processing), które umożliwia maszynom wirtualnym korzystanie z wielu procesorów.

Virtual Iron pierwotnie wykorzystywał techniki parawirtualizacji do uruchamiania gości na maszynach wirtualnych, podobnie jak produkty XenSource oparte na hiperwizorze Xen. Zastosowanie parawirtualizacji polega na wykorzystaniu w maszynach wirtualnych specjalnych wersji systemów gościnnych, których kod źródłowy jest modyfikowany w celu uruchomienia ich na platformach wirtualizacyjnych. Wymaga to zmian w jądrze systemu operacyjnego, co nie stanowi dużego problemu w przypadku systemu operacyjnego typu open source, ale jest nie do przyjęcia w przypadku zastrzeżonych systemów zamkniętych, takich jak Windows. W systemach parawirtualnych nie obserwuje się znaczącego wzrostu wydajności. Jak pokazuje praktyka, producenci systemów operacyjnych niechętnie włączają w swoich produktach obsługę parawirtualizacji, dlatego technologia ta nie zyskała dużej popularności. W rezultacie firma Virtual Iron jako jedna z pierwszych zastosowała techniki wirtualizacji sprzętu, które pozwalają na uruchamianie niezmodyfikowanych wersji systemów gościnnych. Na chwilę obecną najnowsza wersja platformy Virtual Iron 3.7 umożliwia korzystanie z maszyn wirtualnych na platformach serwerowych wyłącznie ze wsparciem wirtualizacji sprzętowej. Oficjalnie obsługiwane są następujące procesory:

  • Seria Intel® Xeon® 3000, 5000, 5100, 5300, 7000, 7100
  • Seria Intel® Core™ 2 Duo E6000
  • Intel® Pentium® D-930, 940, 950, 960
  • Procesory AMD Opteron™ z serii 2200 lub 8200
  • Dwurdzeniowy procesor AMD Athlon™ 64 x2
  • Dwurdzeniowy procesor AMD Turion™ 64 x2

Dodatkowo na stronie Virtual Iron można znaleźć wykazy sprzętu certyfikowanego przez firmę dla jej platformy wirtualizacyjnej.

Produkty Virtual Iron występują w trzech edycjach:

  • Wirtualizacja i zarządzanie jednym serwerem
  • Wirtualizacja i zarządzanie wieloma serwerami
  • Rozwiązanie w zakresie infrastruktury pulpitów wirtualnych (VDI).

Obecnie darmowym rozwiązaniem jest rozwiązanie Single Server, które pozwala na zainstalowanie Virtual Iron na jednym fizycznym hoście w infrastrukturze organizacji. Obsługuje protokół iSCSI, sieci SAN i lokalne systemy przechowywania danych.

Bezpłatna edycja Single Server ma następujące minimalne wymagania instalacyjne:

  • 2 GB RAM-u
  • Napęd CD ROM
  • 36 GB miejsca na dysku
  • Interfejs sieciowy Ethernet
  • Interfejs sieciowy Fibre Channel (opcjonalnie)
  • Obsługa wirtualizacji sprzętowej w procesorze

Virtual Iron pozwala docenić wszystkie możliwości narzędzi do wirtualizacji sprzętu i zarządzania maszynami wirtualnymi. Wersja bezpłatna ma przede wszystkim na celu ocenę efektywności i wygody platformy wirtualizacyjnej oraz narzędzi do zarządzania. Można go jednak również używać w środowisku produkcyjnym przedsiębiorstwa do obsługi wewnętrznych serwerów firmy. Brak oddzielnej platformy hosta pozwoli, po pierwsze, nie wydawać pieniędzy na zakup licencji na system operacyjny hosta, a po drugie, zmniejszy straty produktywności w zakresie obsługi systemów gościnnych. Typowe zastosowania darmowej edycji Virtual Iron to wdrożenie kilku serwerów wirtualnych w infrastrukturze małej organizacji z sektora SMB w celu oddzielenia kluczowych serwerów od sprzętu i zwiększenia ich łatwości zarządzania. W przyszłości kupując komercyjną wersję platformy istnieje możliwość rozbudowy infrastruktury serwerów wirtualnych o wykorzystanie takich funkcji jak efektywne narzędzia do tworzenia kopii zapasowych oraz migracja „na gorąco” serwerów wirtualnych pomiędzy hostami.


Pod względem wygody i łatwości obsługi VMware Server jest niekwestionowanym liderem, a pod względem wydajności nie ustępuje platformom komercyjnym (szczególnie na systemach hostów Linux). Do wad można zaliczyć brak wsparcia dla migracji na gorąco oraz brak narzędzi do tworzenia kopii zapasowych, które jednak najczęściej dostarczają jedynie platformy komercyjne. Oczywiście VMware Server to najlepszy wybór do szybkiego wdrażania wewnętrznych serwerów organizacji, w tym preinstalowanych szablonów serwerów wirtualnych, których można znaleźć w obfitości w różnych zasobach (na przykład).

Wyniki

Podsumowując przegląd darmowych platform do wirtualizacji serwerów, można stwierdzić, że każda z nich zajmuje obecnie swoją niszę w sektorze SMB, gdzie poprzez wykorzystanie maszyn wirtualnych można znacząco zwiększyć wydajność infrastruktury IT, uczynić ją bardziej elastyczną i obniżyć koszty zakupu sprzętu. Darmowe platformy pozwalają przede wszystkim ocenić możliwości wirtualizacji nie na papierze i doświadczyć wszystkich zalet tej technologii. Podsumowując, oto tabela podsumowująca cechy bezpłatnych platform wirtualizacyjnych, która pomoże Ci wybrać odpowiednią platformę serwerową do Twoich celów. Przecież to właśnie poprzez darmową wirtualizację wiedzie droga do dalszych inwestycji w projekty wirtualizacyjne oparte na systemach komercyjnych.

Nazwa platformy, programistaSystem operacyjny hostaOficjalnie obsługiwane systemy operacyjne gościaObsługa wielu procesorów wirtualnych (Virtual SMP)Technika wirtualizacjiTypowe zastosowanieWydajność
Projekt społecznościowy typu open source obsługiwany przez SWSoft LinuxRóżne dystrybucje LinuksaTakWirtualizacja na poziomie systemu operacyjnegoIzolacja serwerów wirtualnych (w tym dla usług hostingowych)Żadnych strat

Wirtualne żelazko Software, Inc
Nie wymaganeWindows, RedHat, SuSETak (do 8)Wirtualizacja serwerów w środowisku produkcyjnymBlisko rodzimego
Serwer wirtualny 2005 R2 SP1
Microsoftu
OknaWindows, Linux (Red Hat i SUSE)NIEWirtualizacja natywna, wirtualizacja sprzętowaWirtualizacja serwerów wewnętrznych w środowisku korporacyjnymBlisko wersji natywnej (z zainstalowanymi dodatkami do maszyny wirtualnej)

VMware
Windowsa, LinuksaDOS, Windows, Linux, FreeBSD, Netware, SolarisTakWirtualizacja natywna, wirtualizacja sprzętowaKonsolidacja serwerów małych przedsiębiorstw, rozwój/testowanieBlisko rodzimego
Xen Express i Xen
XenSource (obsługiwany przez Intel i AMD)
NetBSD, Linux, SolarisLinux, NetBSD, FreeBSD, OpenBSD, Solaris, Windows, Plan 9TakParawirtualizacja, wirtualizacja sprzętowaProgramiści, testerzy, specjaliści IT, konsolidacja serwerów małych przedsiębiorstwZbliżony do natywnego (pewne straty podczas pracy z siecią i intensywnego wykorzystania dysku)