07.08.2015
Virtualisierungstrends
1. Teil: „Ist die Business-IT bald komplett virtualisiert?“
Ist die Business-IT bald komplett virtualisiert?
Autor: Frank-Michael Schlede, Thomas Bär
Shutterstock / Macrovector
Vom Server bis zum Netzwerk - Virtualisierungstechniken erobern immer mehr Bereiche. Geht es nach den großen Anbietern, arbeitet die gesamte Business-IT bald frei von Herstellerzwängen.
Wer heute die IT-Landschaft eines beliebigen Unternehmens begutachtet, der wird dort mit größter Wahrscheinlichkeit mehrere, ganz unterschiedliche Virtualisierungstechniken im Einsatz finden. Dabei ist es ganz gleich, ob es sich um ein kleines, ein mittelständisches oder ein großes Unternehmen handelt: Virtualisierung findet auf sehr vielen Ebenen und in mindestens ebenso vielen Unternehmensbereichen statt.
Das scheint auch nachvollziehbar, verspricht Virtualisierung doch seit Jahren eine maximal effiziente Auslastung der Hardware sowie hochgradige Flexibilität bei der Administration und Bereitstellung von IT-Systemen.
Glaubt man den Schwergewichten im Marktsegment Virtualisierung – zu denen neben der EMC-Tochter VMware als Spezialist für Virtualisierungssoftware auch Unternehmen wie Citrix und Microsoft zählen –, so wird die Virtualisierung zukünftig noch viel tiefer und viel breiter in sämtliche Bereiche der IT vordringen.
com! professional wirft deshalb einen detaillierten Blick auf diese Entwicklungen und zeigt auf, wie weit die Virtualisierung die Business-IT schon heute durchdrungen hat und wie sie sie in naher Zukunft beeinflussen wird.
Von einigen Firmen, zu deren Geschäftsfeld Virtualisierungslösungen gehören, wollten wir zudem wissen, wie sie die aktuelle und die zukünftige Entwicklung dieser populären Sparte der IT sehen. Deshalb haben wir mit Vertretern von VMware, Microsoft, Citrix, Red Hat und dem (Noch-)Newcomer Nutanix gesprochen und ihnen grundsätzliche Fragen gestellt. Außerdem baten wir sie, einen Blick in die viel zitierte Kristallkugel zu werfen und ihre fachliche Einschätzung zur Virtualisierung im Allgemeinen, zu deren einzelnen Strömungen im Speziellen sowie zu den möglichen Auswirkungen auf die Lösungen in der Unternehmens-IT abzugeben.
2. Teil: „Die allgegenwärtige Virtualisierung der Hardware“
Die allgegenwärtige Virtualisierung der Hardware
Schon in den 1960-er- und 1970-er-Jahren setzten die Ingenieure bei IBM auf ihren Großrechnern Virtualisierungsansätze dazu ein, die im Vergleich zu heute recht schwachen Prozessoren der Systeme besser auszulasten. Mit Gründung der Firma VMware, deren Übernahme durch den Speicherriesen EMC und der stetig steigenden Verbreitung dieser Techniken wurde Virtualisierung immer populärer. Mittlerweile hat sie sich zu einem Thema entwickelt, das fast alle IT-Bereiche beeinflusst – im privaten ebenso wie im professionellen Umfeld.
Auch wenn die meisten Anwender und viele IT-Fachleute beim Thema Virtualisierung wahrscheinlich zunächst an die Server-Virtualisierung und damit an teure große Rechenzentren denken, so sind Virtualisierungstechniken doch deutlich weiter verbreitet. Immerhin können sie auf jedem Level eingesetzt werden, sei es auf der Ebene der Hardware, der Software oder auch des Desktops oder Netzwerks.
Ausgehend von der reinen Systemvirtualisierung haben sich auf diese Weise mehrere Teilbereiche herausgebildet, die in ihrer Gesamtheit so etwas wie einen Megatrend darstellen. So arbeiten beispielsweise viele IT-Abteilungen intensiv mit den verschiedensten Ausprägungen der Storage-Virtualisierung, auch als Software-defined Storage (SDS) bezeichnet, und auch die Desktop-Virtualisierung ist nach wie vor ein Thema, Stichwort Virtual Desktop Infrastructure oder kurz VDI.
Neuer – und mindestens ebenso spannend – ist das Thema Netzwerk-Virtualisierung: Bei dieser Technik wird ein komplettes Netzwerk virtuell in Software abgebildet und betrieben. Auch hier heben die Anbieter entsprechender Lösungen – ähnlich wie bei fast allen anderen Virtualisierungstechniken – die dadurch entstehende Unabhängigkeit von der darunterliegenden Hardware als einen der entscheidenden Vorteile eines solchen Ansatzes hervor.
3. Teil: „Der Hypervisor und virtuelle digitale Arbeitsplätze“
Der Hypervisor und virtuelle digitale Arbeitsplätze
Das technologische Herzstück der Server- und Hardware-Virtualisierung ist der Hypervisor, der die Hardware-Ressourcen den einzelnen virtuellen Maschinen zur Verfügung stellt. Aufgrund der vielen Vorteile, die diese Technik bietet, verbreitete sich die Virtualisierung zunächst insbesondere in den Server-Räumen und Rechenzentren von Unternehmen und Institutionen.
Die Flexibilität, die das Konzept der Virtualisierung mit sich bringt, hat dazu geführt, dass immer mehr Bereiche der IT mittels verschiedener Abstraktionsschichten von der darunterliegenden Hardware abgekoppelt betrieben werden. Letztlich bleibt aber der Hypervisor der Geburtshelfer vieler Cloud-Ideen und ist auch aus diesem Grund weiterhin enorm wichtig.
Virtuelle digitale Arbeitsplätze
Virtuelle Desktops waren lange eines der beliebtesten Spielfelder in der IT. Ging es um Virtualisierung, so fiel früher oder später der Begriff Virtual Desktop Infrastructure (VDI). Mittlerweile ist es etwas ruhiger um diese Form der Virtualisierung geworden.
Christian Gehring, Manager Systems Engineering Central & Eastern Europe bei VMware, bestätigt, dass viele VMware-Kunden über langjährige Erfahrungen mit virtuellen Desktops in unterschiedlichen Anwendungsszenarien verfügen. Weiter führt Gehring aus: „Der größte Teil der Unternehmen erfasst die zahlreichen Möglichkeiten jedoch noch nicht und hat mit den klassischen Herausforderungen bei der Verwaltung physikalischer Endgeräte oder bei unflexiblen Terminal-Server-Umgebungen (RDS) zu kämpfen. In den kommenden Jahren wird auch hier die Cloud Einzug halten, sodass Desktops über die Cloud bereitgestellt werden.“ RDS steht für Remote Desktop Services.
Lars Herrmann, General Manager Red Hat Enterprise Linux and Red Hat Enterprise Virtualization, ergänzt: „Wir beobachten einige Hürden bei der Nutzererfahrung, den Speicherkosten, den Bandbreiten und der Verfügbarkeit: Diese Aspekte können den Einsatz des Konzepts behindern. Aber es gibt natürlich auch erfolgreiche Anwendungen in hochstandardisierten und statischen Umgebungen.“
4. Teil: „Virtualisierung von Anwendungen und Netzwerken “
Virtualisierung von Anwendungen und Netzwerken
Die Anwendungs-Virtualisierung ist im Vergleich zu den zuvor genannten Techniken eher eine Art Zwischenschicht zwischen einer Anwendung und den Ressourcen des Betriebssystems. Ziel der Technik ist es, die Anwendungen vom Betriebssystem selbst zu trennen, dabei aber den Benutzern den Betrieb über eine einheitliche Bedienoberfläche weiterhin zu ermöglichen. Während der Laufzeit virtualisiert die Zwischenschicht ein vom Betriebssystem abgetrenntes Dateisystem und verhindert so beispielsweise den direkten Zugriff.
Das Sandboxing von Applikationen wird sicher auch weiterhin ein wichtiges Thema bleiben, da mit dieser Technik eine gute Abschirmung der Anwendungen hinsichtlich der Sicherheit erfolgen kann. Insbesondere auf der mobilen Plattform Android nutzen Mobile-Application-Management- und Mobile-Device-Management-Systeme (MAM beziehungsweise MDM) die Sandboxing-Technik, um beispielsweise geschäftlich genutzte Programme effizient von den Privatdaten der Nutzer zu trennen. Gleichzeitig hat Docker die Container-Virtualisierung salonfähig gemacht und selbst Microsoft will mit der nächsten Version seines Server-Betriebssystem die Technik unterstützen.
Netzwerke und Speichersysteme
Zu den aktuellen Themen rund um die Virtualisierung gehört auch das durch Software definierte Netzwerk, das Software-defined Networking. Dabei wird ein komplettes Netzwerk virtuell in Software abgebildet und betrieben. Auch hier wird von Anbieterseite die damit verbundene Unabhängigkeit von der darunterliegenden Hardware als einer der großen Vorzüge dargestellt.
Damit ist das Software-defined Network zu Recht eines der wichtigsten Virtualisierungsthemen, das IT-Verantwortliche und Administratoren in den kommenden Monaten und Jahren noch intensiv beschäftigen dürfte.
Bei den Speichersystemen ist es hingegen die Entkoppelung von Server- und Storage-Komponenten, die den Kern der sogenannten Storage-Virtualisierung ausmacht. Der große Vorteil für die Administration besteht darin, dass durch diese Virtualisierungsschicht die Notwendigkeit entfällt, stets ausschließlich die Storage-Systeme eines einzigen Herstellers nutzen zu müssen. So lässt sich beispielsweise bei der Spiegelung von Rechnern das primäre System auf Basis des gewählten Herstellers mit entsprechend guten Leistungsdaten aufbauen, während der Sicherungsspiegel auf einem kostengünstigen System angelegt wird.
Die Abstraktion von Speichersystemen durch eine Software-Schicht gehört zu den Virtualisierungstechniken, die bereits weit verbreitet sind. Hier geht der Trend deutlich in Richtung Standardisierung der Techniken, um die Abhängigkeiten von einzelnen Storage-Anbietern zu vermeiden oder wenigstens zu verringern.
5. Teil: „Hyperkonvergenz und Datacenter in a box“
Hyperkonvergenz und Datacenter in a box
Immer wieder ist neuerdings von Hyperkonvergenz die Rede. Doch was verbirgt sich tatsächlich dahinter? Von fast allen Anbietern wird die Hyperkonvergenz-Technik zwar lautstark propagiert, viele Anwender in den Unternehmen hinterlässt sie allerdings ziemlich ratlos, weil Hyperkonvergenz verschieden interpretiert werden kann.
Suda Srinivasan ist als Director of Product Marketing bei der amerikanischen Firma Nutanix tätig, deren Geschäft sich besonders auf solche hyperkonvergenten Lösungen konzentriert. Die Firma war nicht unwesentlich daran beteiligt, den Begriff Datacenter in a box zu prägen.
Mit Datacenter in a box ist gemeint, dass Server, Storage – bestehend aus Festplatten und SSDs – sowie eine Virtualisierungslösung in einer einzigen Architektur zusammengeführt und über dieselbe Bedienoberfläche konfiguriert und gesteuert werden.
Suda Srinivasan von Nutanix legt bei seiner Definition von Hyperkonvergenz Wert darauf, festzustellen, dass die integrierte Storage-Komponente ein besonders wichtiger Teil eines derartigen Konzepts ist: „Ein hyperkonvergentes System integriert von sich aus die Rechenleistung und den Speicherplatz (Storage) in einem einzigen x86-Server, der in Scale-Out Clustern zum Einsatz kommt.“ Scale-Out Cluster sind eine Erweiterung von Server-Architekturen, die dazu dient, die Expansion durch horizontale Skalierung zu ermöglichen.
Auch Anna Notholt, Cloud Platform Lead, Cloud & Enterprise BG bei Microsoft Deutschland, betont bei ihrer Hyperkonvergenz-Einschätzung die sehr enge, softwarebasierte Integration von Computing, Storage und Netzwerkressourcen und die damit einhergehende einheitliche Verwaltung dieser Ressourcen. Zudem unterstreicht sie den Cloud-Aspekt dieses Ansatzes: „Durch den Einsatz dieser Lösungen, wie zum Beispiel dem Cloud Platform System von Microsoft und Dell, können Unternehmen eine Cloud im eigenen Rechenzentrum betreiben.“
Peter Goldbrunner von Citrix versteht Hyperkonvergenz wiederum als unterschiedliche Teile einer Infrastruktur bestehend aus Hardware und Software, die dann in einem Gehäuse oder Block verwaltet werden kann. Er hebt ebenfalls hervor, dass die Intelligenz beziehungsweise Logik einer derartigen Lösung aus der Software kommt.
Lars Herrmann von Red Hat setzt den Schwerpunkt etwas anders, er sieht ihn in der Fähigkeit der hyperkonvergenten Systeme, durch die Entwicklung neuer, eng verknüpfter Plattformen mit hochintegrierten Rechner-, Speicher- und Netzwerkkomponenten den Schritt hin zu einem Software-defined Datacenter zu unterstützen. Weiter führt er aus: „Hyperkonvergenz vereinfacht außerdem die Skalierbarkeit, die oft schwer in traditionellen Infrastrukturen mit unabhängigen Server-, Storage- und Netzwerkkomponenten zu realisieren ist.“
6. Teil: „Ein kritischer Blick auf den Virtualisierungs-Hype“
Ein kritischer Blick auf den Virtualisierungs-Hype
Der Hype, der in den vergangenen Jahren rund um die Virtualisierung entstanden ist, fordert eine differenzierte Betrachtung geradezu heraus.
Während bei einer klassischen Installation eines Servers auf einer Hardware das Sizing in der Regel über ausreichend und manchmal zu viele Ressourcen verfügt, zeigt die Praxis, dass viele Administratoren dazu neigen, ihre Virtualisierungs-Hosts über Gebühr mit zu vielen Maschinen zu strapazieren.
Eine CPU mit acht Kernen und 32 GByte RAM kann und wird im Produktivbetrieb niemals vier ausgewachsene Server-Systeme einigermaßen performant betreiben können. Eine derart starke Überlastung zieht aber letztlich träge Reaktionszeiten nach sich – und diese wiederum führen zu einer schlechten User-Experience.
VMware ESX & Co. laden die IT-ler förmlich dazu ein, mehr aus den Maschinen herausquetschen zu wollen, als es ihnen die Vernunft gebieten würde. Kommt dann noch falsche Sparsamkeit hinzu, wenn beispielsweise zu wenige NICs (Network Interface Controller) im Host-System zur Verfügung stehen, dann teilen sich am Ende ein Mail-Server, ein Datenbanksystem, ein Backup-Rechner und zwei Terminal-Server eine einzelne Netzwerkkarte für den gesamten Netzwerkverkehr. Das kann nicht gutgehen.
Hier gilt die Regel: Server-Virtualisierung vermag zwar die Stromkosten zu senken und die Hardware-Auslastung zu optimieren, jedoch nur in einem vertretbaren Rahmen, der der Situation angepasst sein muss.
Die Storage-Virtualisierung ist als Schlagwort nach wie vor sehr populär. Immerhin verspricht diese Technik, dass alles viel einfacher wird, wenn die Storage-Systeme in einer einzigen Struktur abstrahiert genutzt werden können. Doch diese Art der Flexibilität wurde – vom Standpunkt des reinen Dateizugriffs aus betrachtet – von Techniken wie dem Distributed File System (DFS) schon vor Jahren mühelos erreicht. Auch bei DFS existiert eine Abstraktionsschicht, mit deren Hilfe die darunterliegenden File-Server kaschiert und somit beliebig austauschbar gemacht werden.
Spezielle Softwareprodukte wie die Lösungen von Datacore bieten ebenfalls seit Jahren eine ähnliche Technik für den blockbasierten Zugriff auf das Dateisystem an, die zunächst nur noch nicht als Storage-Virtualisierung bezeichnet wurde. Außerdem erlauben Techniken wie iSCSI und Fibre Channel eine sehr hohe Dynamik und Leistung, die allerdings bei falscher Konfiguration in den Software-Abstraktionsschichten ebenso schnell wieder ausgebremst werden.
Wer sich dann noch die vermehrt ausgebauten Abstraktionsschichten in der professionellen IT genauer ansieht, der erreicht unweigerlich das Netzwerk und den virtuellen Desktop. Gerade in Hinblick auf diese Bereiche sollten IT-Verantwortliche und Administratoren einen wichtigen Aspekt nicht außer Acht lassen. Durch derartige Techniken entsteht eine deutlich höhere Komplexität, die sich auf das Tagesgeschäft der IT-Mitarbeiter auswirkt.
Die zunehmende Unabhängigkeit von Hardware durch Virtualisierungstechniken ist im Prinzip eine gute Sache. Auf der anderen Seite ist es für den Systemverwalter dank dieser Techniken heute kaum noch möglich, die Verquickungen der unterschiedlichen Systeme und deren Folgen für virtualisierte Einzelsysteme zu überblicken. Fällt beispielsweise eine Platte in einem RAID-Verbund im Käfig eines herkömmlichen Datei-Servers aus, so kann der IT-Mitarbeiter schnell herausfinden, welches der angeschlossenen Systeme in Gefahr ist.
In einem Storage-Verbund hingegen, der etwa über ein Software-defined Network mit mehreren virtuellen LUNs auf acht dynamischen ESX-Hosts mit teilautomatisierter vMotion angesprochen wird, fällt es selbst dem erfahrenen IT-Mann schwer, die Auswirkungen eines Kabel- oder Plattenausfalls auf den ersten Blick zu finden.
Der steigende Grad der Virtualisierung verlangt von den IT-Mitarbeitern also, dass sie die Abstraktion der unterschiedlichen Schichten stets nachvollziehen können – was trotz der Unterstützung durch entsprechende Software-Tools in der Praxis oft genug schwierig ist.
Fazit
Unbestritten ist, dass die Virtualisierung eine technologische Triebfeder für die gesamte Branche bleibt. Noch vor 15 Jahren war es vollkommen undenkbar ein „Rechenzentrum to go“ für ein paar Stunden und Tage einzurichten und produktiv zu verwenden.
IT-Arbeitsplätze sollen und müssen heute anders funktionieren als vor ein paar Jahren. Virtualisierung, Techniken wie gehostete Desktops und die Möglichkeit, Netzwerke flexibel zu konfigurieren, werden die IT und damit die Arbeitswelt weiterhin entscheidend beeinflussen und prägen.
Virtualisierung ist Gegenwart und Zukunft professioneller IT.
Huawei Roadshow 2024
Technologie auf Rädern - der Show-Truck von Huawei ist unterwegs
Die Huawei Europe Enterprise Roadshow läuft dieses Jahr unter dem Thema "Digital & Green: Accelerate Industrial Intelligence". Im Show-Truck zeigt das Unternehmen neueste Produkte und Lösungen. Ziel ist es, Kunden und Partner zusammenzubringen.
>>
Nach der Unify-Übernahme
Mitels kombinierte Portfoliostrategie
Der UCC-Spezialist Mitel bereinigt nach der Unify-Übernahme sein Portfolio – und möchte sich auf die Bereiche Hybrid Cloud-Anwendungen, Integrationsmöglichkeiten in vertikalen Branchen sowie auf den DECT-Bereich konzentrieren.
>>
Umweltschutz
Netcloud erhält ISO 14001 Zertifizierung für Umweltmanagement
Das Schweizer ICT-Unternehmen Netcloud hat sich erstmalig im Rahmen eines Audits nach ISO 14001 zertifizieren lassen. Die ISO-Zertifizierung erkennt an wenn Unternehmen sich nachhaltigen Geschäftspraktiken verpflichten.
>>
Cyberbedrohungen überall
IT-Sicherheit unter der Lupe
Cybersecurity ist essentiell in der IT-Planung, doch Prioritätenkonflikte und die Vielfalt der Aufgaben limitieren oft die Umsetzung. Das größte Sicherheitsrisiko bleibt der Mensch.
>>