Virtualisierung
07.08.2015
Virtualisierungstrends
1. Teil: „Ist die Business-IT bald komplett virtualisiert?“

Ist die Business-IT bald komplett virtualisiert?

VirtualisierungVirtualisierungVirtualisierung
Shutterstock / Macrovector
Vom Server bis zum Netzwerk - Virtualisierungstechniken erobern immer mehr Bereiche. Geht es nach den großen Anbietern, arbeitet die gesamte Business-IT bald frei von Herstellerzwängen.
Wer heute die IT-Landschaft eines beliebigen Unternehmens begutachtet, der wird dort mit größter Wahrscheinlichkeit mehrere, ganz unterschiedliche Virtualisierungstechniken im Einsatz finden. Dabei ist es ganz gleich, ob es sich um ein kleines, ein mittelständisches oder ein großes Unternehmen handelt: Virtualisierung findet auf sehr vielen Ebenen und in mindestens ebenso vielen Unternehmensbereichen statt.
Das scheint auch nachvollziehbar, verspricht Virtualisierung doch seit Jahren eine maximal effi­ziente Auslastung der Hardware sowie hochgradige Flexi­bilität bei der Administration und Bereitstellung von IT-Systemen.
Bilderstrecke
Wenn es nach VMware geht, soll sich die gesamte IT von der Hardware lösen und ihre wichtigsten Ressourcen in Software betreiben. Zahlen sollen die Vorteile verdeutlichen.
Glaubt man den Schwergewichten im Marktsegment Virtualisierung – zu denen neben der EMC-Tochter VMware  als Spezialist für Virtualisierungssoftware auch Unternehmen wie Citrix und Microsoft zählen –, so wird die Virtualisierung zukünftig noch viel tiefer und viel breiter in sämtliche Bereiche der IT vordringen.
com! professional wirft deshalb einen detaillierten Blick auf diese Entwicklungen und zeigt auf, wie weit die Virtualisierung die Business-IT schon heute durchdrungen hat und wie sie sie in naher Zukunft beeinflussen wird.
Von einigen Firmen, zu deren Geschäftsfeld Virtualisierungslösungen gehören, wollten wir zudem wissen, wie sie die aktuelle und die zukünftige Entwicklung dieser populären Sparte der IT sehen. Deshalb haben wir mit Vertretern von VMware, Microsoft, Citrix, Red Hat und dem (Noch-)New­comer Nutanix gesprochen und ihnen grundsätzliche Fragen gestellt. Außerdem baten wir sie, einen Blick in die viel zitierte Kristallkugel zu werfen und ihre fachliche Einschätzung zur Virtualisierung im Allgemeinen, zu deren einzelnen Strömungen im Speziellen sowie zu den möglichen Auswirkungen auf die Lösungen in der Unternehmens-IT abzugeben.
2. Teil: „Die allgegenwärtige Virtualisierung der Hardware“

Die allgegenwärtige Virtualisierung der Hardware

  • Christian Gehring, Manager Systems Engineering Central & Eastern Europe bei VMware, sieht einen deutlichen Trend bei den Virtualisierungslösungen: „Auf Unternehmensseite vermischen sich die starren Rechenzentren der Kunden mit Cloud-Diensten, was die Agilität und die Reaktionsgeschwindigkeit erhöht.“
Wer mit erfahrenen IT-Fachleuten spricht, der bekommt sehr häufig zu hören, die Virtualisierung von Hardware sei mitnichten eine neue Technik. Und das ist auch vollkommen richtig.
Schon in den 1960-er- und 1970-er-Jahren setzten die Ingenieure bei IBM auf ihren Großrechnern Virtualisierungs­ansätze dazu ein, die im Vergleich zu heute recht schwachen Prozessoren der Systeme besser auszulasten. Mit Gründung der Firma VMware, deren Übernahme durch den Speicherriesen EMC und der stetig steigenden Verbreitung dieser Techniken wurde Virtualisierung immer populärer. Mittlerweile hat sie sich zu einem Thema entwickelt, das fast alle IT-Bereiche beeinflusst –  im privaten ebenso wie im professionellen Umfeld.
Auch wenn die meisten Anwender und viele IT-Fachleute beim Thema Virtualisierung wahrscheinlich zunächst an die Server-Virtualisierung und damit an teure große Rechenzen­tren denken, so sind Virtualisierungstechniken doch deutlich weiter verbreitet. Immerhin können sie auf jedem Level eingesetzt werden, sei es auf der Ebene der Hardware, der Software oder auch des Desktops oder Netzwerks.
Ausgehend von der reinen Systemvirtualisierung haben sich auf diese Weise mehrere Teilbereiche herausgebildet, die in ihrer Gesamtheit so etwas wie einen Megatrend darstellen. So arbeiten beispielsweise viele IT-Abteilungen intensiv mit den verschiedensten Ausprägungen der Storage-Virtualisierung, auch als Software-defined Storage (SDS) bezeichnet, und auch die Desktop-Virtualisierung ist nach wie vor ein Thema, Stichwort Virtual Desktop Infrastructure oder kurz VDI.
Neuer – und mindestens ebenso spannend – ist das Thema Netzwerk-Virtualisierung: Bei dieser Technik wird ein komplettes Netzwerk virtuell in Software abgebildet und betrieben. Auch hier heben die Anbieter entsprechender Lösungen – ähnlich wie bei fast allen anderen Virtualisierungstechniken – die dadurch entstehende Unabhängigkeit von der da­runterliegenden Hardware als einen der entscheidenden Vorteile eines solchen Ansatzes hervor.
3. Teil: „Der Hypervisor und virtuelle digitale Arbeitsplätze“

Der Hypervisor und virtuelle digitale Arbeitsplätze

Das technologische Herzstück der Server- und Hardware-Virtualisierung ist der Hypervisor, der die Hardware-Ressourcen den einzelnen virtuellen Maschinen zur Verfügung stellt. Aufgrund der vielen Vorteile, die diese Technik bietet, verbreitete sich die Virtualisierung zunächst insbesondere in den Server-Räumen und Rechenzentren von Unternehmen und Institutionen.
  • Suda Srinivasan, Director of Product Marketing bei Nutanix, betont die Wichtigkeit des Hypervisors für Gegenwart und Zukunft der Virtualisierung: „Wir verfügen heute über neue Architekturansätze für die Virtualisierung, durch die es möglich ist, Einfachheit, Auswahlmöglichkeit und Mobilität bei der Arbeitslast in einer Multi-Hypervisor-Umgebung zu liefern. Der Hypervisor ist heute das wahre ‚Blech‘ der IT!“
Der größte Vorteil ist sicher die Möglichkeit, die vorhandene Hardware deutlich besser auszulasten. Aber auch die Fähigkeit, virtuelle Maschinen im laufenden Betrieb von einem Hypervisor-Host auf einen anderen zu verschieben, sowie die Tatsache, dass es sich bei der virtualisierten Maschine stets um die exakt identische „gedachte Hardware“ handelt, erlauben einen flexiblen Einsatz im Unternehmen.
Die Flexibilität, die das Konzept der Virtualisierung mit sich bringt, hat dazu geführt, dass immer mehr Bereiche der IT mittels verschiedener Abstraktionsschichten von der da­runterliegenden Hardware abgekoppelt betrieben werden. Letztlich bleibt aber der Hypervisor der Geburtshelfer vieler Cloud-Ideen und ist auch aus diesem Grund weiterhin enorm wichtig.

Virtuelle digitale Arbeitsplätze

Virtuelle Desktops waren lange eines der beliebtesten Spielfelder in der IT. Ging es um Virtualisierung, so fiel früher oder später der Begriff Virtual Desktop Infrastructure (VDI). Mittlerweile ist es etwas ruhiger um diese Form der Virtualisierung geworden.
Christian Gehring, Manager Systems Engineering Central & Eastern Europe bei VMware, bestätigt, dass viele VM­ware-Kunden über langjährige Erfahrungen mit virtuellen Desktops in unterschiedlichen Anwendungsszenarien verfügen. Weiter führt Gehring aus: „Der größte Teil der Unternehmen erfasst die zahlreichen Möglichkeiten jedoch noch nicht und hat mit den klassischen Herausforderungen bei der Verwaltung physikalischer Endgeräte oder bei unflexiblen Terminal-Server-Umgebungen (RDS) zu kämpfen. In den kommenden Jahren wird auch hier die Cloud Einzug halten, sodass Desktops über die Cloud bereitgestellt werden.“ RDS steht für Remote Desktop Services.
  • Alles virtuell: Auch der Desktop der Nutzer kann virtuell zur Verfügung gestellt werden, hier beispielsweise ein Windows-8-Desktop, der im Browser via VMware Horizon dargestellt wird.
Peter Goldbrunner, Country Manager Germany bei Citrix, sieht VDI lediglich als ein Einsatzszenario an, in dem ein Betriebssystem serverseitig für bestimmte User, Rollen und Anforderungen bereitgestellt wird. Er hebt die Vorteile der Anwendungs-Virtualisierung gegenüber der Virtualisierung des kompletten Desktops hervor: „In einer mobilen Welt, in der die Betriebssysteme etwas in den Hintergrund treten und Anwendungen sowie mobile Apps im Vordergrund stehen, ist die Anwendungs-Virtualisierung der Kern eines Software-defined Workplace. Dieser Software-defined Workplace beziehungsweise digitale Arbeitsplatz ist heute eines der Kernthemen bei sehr vielen Kunden und ein Top-Thema im Management.“
Lars Herrmann, General Manager Red Hat Enterprise Linux and Red Hat Enterprise Virtualization, ergänzt: „Wir beobachten einige Hürden bei der Nutzererfahrung, den Speicherkosten, den Bandbreiten und der Verfügbarkeit: Diese Aspekte können den Einsatz des Konzepts behindern. Aber es gibt natürlich auch erfolgreiche Anwendungen in hochstandardisierten und statischen Umgebungen.“
4. Teil: „Virtualisierung von Anwendungen und Netzwerken “

Virtualisierung von Anwendungen und Netzwerken

Die Anwendungs-Virtualisierung ist im Vergleich zu den zuvor genannten Techniken eher eine Art Zwischenschicht zwischen einer Anwendung und den Ressourcen des Betriebssystems. Ziel der Technik ist es, die Anwendungen vom Betriebssystem selbst zu trennen, dabei aber den Benutzern den Betrieb über eine einheitliche Bedienoberfläche weiterhin zu ermöglichen. Während der Laufzeit virtualisiert die Zwischenschicht ein vom Betriebssystem abgetrenntes Dateisystem und verhindert so beispielsweise den direkten Zugriff.
  • Peter Goldbrunner, Country Manager Germany bei Citrix: „Virtualisierung oder auch Digitalisierung greift in alle physischen Bereiche ein, egal ob Anwendungen, Betriebssysteme, Server, Storage oder auch Netzwerk. Die meisten Aktivitäten im Markt beziehungsweise auf Herstellerseite sind derzeit im Bereich Desktops und Netzwerk zu beobachten, wobei das Interesse von Kunden und Herstellern durch die hohe Zahl an vorhandenen Desktops gleichermaßen groß ist.“
Sehr häufig fällt hier der Begriff Sandboxing. Die Isolierung der Anwendung vom Host-Betriebssystem verhindert beispielsweise unerwünschte Interaktionen, etwa mit dem Ziel, mehr Betriebssicherheit oder eine flexiblere Kompatibilität zu gewährleisten. In diesem Kontext beschreibt der Begriff „virtualisiert“ also die Isolierung der Anwendung vom da­runterliegenden Betriebssystem, während sich der Begriff im Kontext mit virtuellen Maschinen mehr auf die Abstraktion von der darunterliegenden Hardware-Schicht bezieht.
Das Sandboxing von Applikationen wird sicher auch weiterhin ein wichtiges Thema bleiben, da mit dieser Technik eine gute Abschirmung der Anwendungen hinsichtlich der Sicherheit erfolgen kann. Insbesondere auf der mobilen Plattform Android nutzen Mobile-Application-Management- und Mobile-Device-Management-Systeme (MAM beziehungsweise MDM) die Sandboxing-Technik, um beispielsweise geschäftlich genutzte Programme effizient von den Privatdaten der Nutzer zu trennen. Gleichzeitig hat Docker die Container-Virtualisierung salonfähig gemacht und selbst Microsoft will mit der nächsten Version seines Server-Betriebssystem die Technik unterstützen.

Netzwerke und Speichersysteme

Zu den aktuellen Themen rund um die Virtualisierung gehört auch das durch Software definierte Netzwerk, das Software-defined Networking. Dabei wird ein komplettes Netzwerk virtuell in Software abgebildet und betrieben. Auch hier wird von Anbieterseite die damit verbundene Unabhängigkeit von der darunterliegenden Hardware als einer der großen Vorzüge dargestellt.
  • Flexible Virtualisierungstechniken: Die sogenannten Dynamic Hardware Pools (DHP) von KAMP erlauben das Erstellen und den Betrieb ganzer Server-Systeme mit Betriebssystem-Images, Storage und Netzwerk über das Internet.
Das mag sich zunächst einfach anhören. Doch gerade die umfassende Virtualisierung des kompletten Netzwerks samt Management und die Überführung solcher Standardkomponenten wie Switches in eine virtuelle Version erfordern einen nicht zu unterschätzenden Aufwand. Grundsätzlich sollen dann letztlich aber auch die Netzwerkkomponenten schneller und flexibler auf die sich ständig verändernden Konfigurationen und beliebig zuteilbaren virtuellen Ressourcen in modernen IT-Umgebungen reagieren können.
Damit ist das Software-defined Network zu Recht eines der wichtigsten Virtualisierungsthemen, das IT-Verantwortliche und Administratoren in den kommenden Monaten und Jahren noch intensiv beschäftigen dürfte.
Bei den Speichersystemen ist es hingegen die Entkoppelung von Server- und Storage-Komponenten, die den Kern der sogenannten Storage-Virtualisierung ausmacht. Der große Vorteil für die Administration besteht darin, dass durch diese Virtualisierungsschicht die Notwendigkeit entfällt, stets ausschließlich die Storage-Systeme eines einzigen Herstellers nutzen zu müssen. So lässt sich beispielsweise bei der Spiegelung von Rechnern das primäre System auf Basis des gewählten Herstellers mit entsprechend guten Leistungsdaten aufbauen, während der Sicherungsspiegel auf einem kostengünstigen System angelegt wird.
Die Abstraktion von Speichersystemen durch eine Software-Schicht gehört zu den Virtualisierungstechniken, die bereits weit verbreitet sind. Hier geht der Trend deutlich in Richtung Standardisierung der Techniken, um die Abhängigkeiten von einzelnen Storage-Anbietern zu vermeiden oder wenigstens zu verringern.
5. Teil: „Hyperkonvergenz und Datacenter in a box“

Hyperkonvergenz und Datacenter in a box

Immer wieder ist neuerdings von Hyperkonvergenz die Rede. Doch was verbirgt sich tatsächlich dahinter? Von fast allen Anbietern wird die Hyperkonvergenz-Technik zwar lautstark propagiert, viele Anwender in den Unternehmen hinterlässt sie allerdings ziemlich ratlos, weil Hyperkonvergenz verschieden interpretiert werden kann.
  • Anna Notholt, Cloud Platform Lead, Cloud & Enterprise BG bei Microsoft Deutschland, ist sicher, dass der Virtualisierungsgrad in den Unternehmen in den nächsten Jahren noch zunehmen wird, und sieht den Trend dabei deutlich im vermehrten Einsatz von Containertechniken.
Christian Gehring von VMware fasst Hyperkonvergenz zum Beispiel prägnant so zusammen: „Hyperkonvergente Lösungen kombinieren Rechenleistung, Netzwerk und Storage in nur einer Appliance.“ Zudem hebt er einen weiteren Unterschied zwischen hyperkonvergenten und normalen IT-Infrastrukturen als charakteristisch hervor: „Eine hyperkonvergente Infrastruktur zeichnet sich dadurch aus, dass auch eine Virtualisierungssoftware enthalten ist.“
Suda Srinivasan ist als Director of Product Marketing bei der amerikanischen Firma Nutanix tätig, deren Geschäft sich besonders auf solche hyperkonvergenten Lösungen konzentriert. Die Firma war nicht unwesentlich daran beteiligt, den Begriff Datacenter in a box zu prägen.
Mit Datacenter in a box ist gemeint, dass Server, Storage – bestehend aus Festplatten und SSDs – sowie eine Virtualisierungslösung in einer einzigen Architektur zusammengeführt und über dieselbe Bedienoberfläche konfiguriert und gesteuert werden.
Suda Srinivasan von Nutanix legt bei seiner Definition von Hyperkonvergenz Wert darauf, festzustellen, dass die inte­grierte Storage-Komponente ein besonders wichtiger Teil eines derartigen Konzepts ist: „Ein hyperkonvergentes System integriert von sich aus die Rechenleistung und den Speicherplatz (Storage) in einem einzigen x86-Server, der in Scale-Out Clustern zum Einsatz kommt.“ Scale-Out Cluster sind eine Erweiterung von Server-Architekturen, die dazu dient, die Expansion durch horizontale Skalierung zu ermöglichen.
  • VDI aus der Cloud: VMwares Project Enzo will VDI-Techniken mit den Vorteilen hyperkonvergenter Systeme kombinieren.
Zudem hebt Srinivasan hervor, durch den Einsatz dieser Technik könne sowohl der Raum- als auch der Energiebedarf deutlich reduziert werden, was wiederum die Komplexität von Storage-Architekturen erheblich verringere und somit zu einer direkten Kosteneinsparung führe.
Auch Anna Notholt, Cloud Platform Lead, Cloud & Enterprise BG bei Microsoft Deutschland, betont bei ihrer Hyperkonvergenz-Einschätzung die sehr enge, softwarebasierte Integration von Computing, Storage und Netzwerkressourcen und die damit einhergehende einheitliche Verwaltung dieser Ressourcen. Zudem unterstreicht sie den Cloud-Aspekt dieses Ansatzes: „Durch den Einsatz dieser Lösungen, wie zum Beispiel dem Cloud Platform System von Microsoft und Dell, können Unternehmen eine Cloud im eigenen Rechenzentrum betreiben.“
Peter Goldbrunner von Citrix versteht Hyperkonvergenz wiederum als unterschiedliche Teile einer Infrastruktur bestehend aus Hardware und Software, die dann in einem Gehäuse oder Block verwaltet werden kann. Er hebt ebenfalls hervor, dass die Intelligenz beziehungsweise Logik einer derartigen Lösung aus der Software kommt.
Lars Herrmann von Red Hat setzt den Schwerpunkt etwas anders, er sieht ihn in der Fähigkeit der hyperkonvergenten Systeme, durch die Entwicklung neuer, eng verknüpfter Plattformen mit hochintegrierten Rechner-, Speicher- und Netzwerkkomponenten den Schritt hin zu einem Software-defined Datacenter zu unterstützen. Weiter führt er aus: „Hyperkonvergenz vereinfacht außerdem die Skalierbarkeit, die oft schwer in traditionellen Infrastrukturen mit unabhängigen Server-, Storage- und Netzwerkkomponenten zu realisieren ist.“
6. Teil: „Ein kritischer Blick auf den Virtualisierungs-Hype“

Ein kritischer Blick auf den Virtualisierungs-Hype

Der Hype, der in den vergangenen Jahren rund um die Virtualisierung entstanden ist, fordert eine differenzierte Betrachtung geradezu heraus.
  • Lars Herrmann, General Manager Red Hat Enterprise Linux and Red Hat Enterprise Virtualization, betrachtet die zunehmende Akzeptanz offener Technologien als einen der wichtigsten Trends im Jahr 2015: „KVM hat dabei als wichtigste Virtualisierungslösung im OpenStack-Umfeld bewiesen, dass sie durch große Stabilität, hohe Performance und hervorragende Skalierbarkeit auch bei groß angelegten Projekten jetzt für den Einsatz in Unternehmen bereit ist. Die Vorteile der Virtualisierung werden Innovationen bei Entwicklung, Skalierung und Implementierung von Applikationen weiter vorantreiben.“
Wer den Ausführungen der Analysten und Firmenvertretern folgt, kann schnell den Eindruck gewinnen, ohne Virtualisierung sei im Unternehmen keine IT mehr möglich. Die Vorteile der Virtualisierung scheinen immens zu sein: verlockende Anwendungsszenarien wie hyperdynamische Rechenzentren, flexible Ressourcen-Zuweisung, Automatisierungsgrade bei der Einrichtung von Umgebungen oder Arbeitsplätzen und bei Bedarf eine cloudbasierte Variante mit Byte-genauer Abrechnung. Was kann daran schlecht sein?
Während bei einer klassischen Installation eines Servers auf einer Hardware das Sizing in der Regel über ausreichend und manchmal zu viele Ressourcen verfügt, zeigt die Praxis, dass viele Administratoren dazu neigen, ihre Virtualisierungs-Hosts über Gebühr mit zu vielen Maschinen zu strapazieren.
Eine CPU mit acht Kernen und 32 GByte RAM kann und wird im Produktivbetrieb niemals vier ausgewachsene Server-Systeme einigermaßen performant betreiben können. Eine derart starke Überlastung zieht aber letztlich träge Reaktionszeiten nach sich – und diese wiederum führen zu einer schlechten User-Experience.
VMware ESX & Co. laden die IT-ler förmlich dazu ein, mehr aus den Maschinen he­rausquetschen zu wollen, als es ihnen die Vernunft gebieten würde. Kommt dann noch falsche Sparsamkeit hinzu, wenn beispielsweise zu wenige NICs (Network Interface Controller) im Host-System zur Verfügung stehen, dann teilen sich am Ende ein Mail-Server, ein Datenbanksystem, ein Backup-Rechner und zwei Terminal-Server eine einzelne Netzwerkkarte für den gesamten Netzwerkverkehr. Das kann nicht gutgehen.
Hier gilt die Regel: Server-Virtualisierung vermag zwar die Stromkosten zu senken und die Hardware-Auslastung zu optimieren, jedoch nur in einem vertretbaren Rahmen, der der Situation angepasst sein muss.
Weiterhin ist mancher Virtualisierungstrend auch gar nicht so neu und markant, wie es auf den ersten Blick erscheinen mag. Beispiel: Storage-Virtualisierung.
Die Storage-Virtualisierung ist als Schlagwort nach wie vor sehr populär. Immerhin verspricht diese Technik, dass alles viel einfacher wird, wenn die Storage-Systeme in einer einzigen Struktur abstrahiert genutzt werden können. Doch diese Art der Flexibilität wurde – vom Standpunkt des reinen Dateizugriffs aus betrachtet – von Techniken wie dem Distributed File System (DFS) schon vor Jahren mühelos erreicht. Auch bei DFS existiert eine Abstraktionsschicht, mit deren Hilfe die darunterliegenden File-Server kaschiert und somit beliebig austauschbar gemacht werden.
Spezielle Softwareprodukte wie die Lösungen von Datacore bieten ebenfalls seit Jahren eine ähnliche Technik für den blockbasierten Zugriff auf das Dateisystem an, die zunächst nur noch nicht als Storage-Virtualisierung bezeichnet wurde. Außerdem erlauben Techniken wie iSCSI und Fibre Channel eine sehr hohe Dynamik und Leistung, die allerdings bei falscher Konfiguration in den Software-Abstraktionsschichten ebenso schnell wieder ausgebremst werden.
Wer sich dann noch die vermehrt ausgebauten Abstrak­tionsschichten in der professionellen IT genauer ansieht, der erreicht unweigerlich das Netzwerk und den virtuellen Desktop. Gerade in Hinblick auf diese Bereiche sollten IT-Verantwortliche und Administratoren einen wichtigen Aspekt nicht außer Acht lassen. Durch derartige Techniken entsteht eine deutlich höhere Komplexität, die sich auf das Tagesgeschäft der IT-Mitarbeiter auswirkt.
Die zunehmende Unabhängigkeit von Hardware durch Virtualisierungstechniken ist im Prinzip eine gute Sache. Auf der anderen Seite ist es für den Systemverwalter dank dieser Techniken heute kaum noch möglich, die Verquickungen der unterschiedlichen Systeme und deren Folgen für virtualisierte Einzelsysteme zu überblicken. Fällt beispielsweise eine Platte in einem RAID-Verbund im Käfig eines herkömmlichen Datei-Servers aus, so kann der IT-Mitarbeiter schnell herausfinden, welches der angeschlossenen Systeme in Gefahr ist.
In einem Storage-Verbund hingegen, der etwa über ein Software-defined Network mit mehreren virtuellen LUNs auf acht dynamischen ESX-Hosts mit teilautomatisierter vMotion angesprochen wird, fällt es selbst dem erfahrenen IT-Mann schwer, die Auswirkungen eines Kabel- oder Plattenausfalls auf den ersten Blick zu finden.
Der steigende Grad der Virtualisierung verlangt von den IT-Mitarbeitern also, dass sie die Abstraktion der unterschiedlichen Schichten stets nachvollziehen können – was trotz der Unterstützung durch entsprechende Software-Tools in der Praxis oft genug schwierig ist.

Fazit

Unbestritten ist, dass die Virtualisierung eine technologische Triebfeder für die gesamte Branche bleibt. Noch vor 15 Jahren war es vollkommen undenkbar ein „Rechenzentrum to go“ für ein paar Stunden und Tage einzurichten und produktiv zu verwenden.
IT-Arbeitsplätze sollen und müssen heute anders funktionieren als vor ein paar Jahren. Virtualisierung, Techniken wie gehostete Desktops und die Möglichkeit, Netzwerke flexibel zu konfigurieren, werden die IT und damit die Arbeits­welt weiterhin entscheidend beeinflussen und prägen.
Virtualisierung ist Gegenwart und Zukunft professioneller IT.

mehr zum Thema