Business-IT
14.04.2020
Automatisierung
1. Teil: „Das selbstfahrende Rechenzentrum“

Das selbstfahrende Rechenzentrum

Server mit NetzwerkkabelnServer mit NetzwerkkabelnServer mit Netzwerkkabeln
asharkyub / shutterstock.com
Automatisierte Abläufe im Rechenzentrum schaffen die Grundlage für Digitalisierungsprojekte. So können standardisierte IT-Ressourcen möglichst schnell, flexibel und kostengünstig bereitgestellt werden.
Das Automatisieren von Abläufen spielt nicht nur in der Informationstechnik derzeit eine wichtige Rolle: Fußballtrainer versuchen, ihren Spielern Standardspielzüge und automatisierte „Laufwege“ beizubringen. Automobilentwickler, Anbieter von Sensoren und Software-Firmen arbeiten mit Hochdruck daran, Lkw und Personenwagen für das autonome Fahren fit zu machen. In beiden Fällen geht es darum, dass die betreffenden „Systeme“, also Spieler und Fahrzeuge, eigenständig Entscheidungen treffen und möglichst schnell umsetzen.
Vergleichbares spielt sich in Rechenzentren ab. Doch ein automatisiertes Data-Center soll natürlich keine Tore schießen oder ohne Zutun des Fahrers auf der Autobahn oder in der Stadt manövrieren. „Die Automatisierung ermöglicht es, häufig wiederkehrende Tätigkeiten in Rechenzentren schneller, zuverlässiger und kostengünstiger umzusetzen als ein Mensch“, erklärt Thomas King, Chief Technology Officer bei DE-CIX. Das Unternehmen betreibt einige der größten Internetknoten der Welt, inklusive der dazu gehörigen Rechenzentren.
Neben den Kosten und der höheren Zuverlässigkeit sprechen weitere Argumente dafür, den Rechenzentrumsbetrieb zu automatisieren: „Unternehmen sollten ihre Data-Center automatisieren, weil sie dadurch ein höheres Sicherheits­niveau erreichen“, betont beispielsweise Andreas Jagdmann, Senior Solutions Consultant beim IT-Haus Axians Networks & Solutions. „Außerdem steigert die Automatisierung die Zuverlässigkeit und Agilität des Data-Centers.“
Der Grund ist zum einen, dass die Fehlerquote sinkt, wenn manuelle Prozesse automatisiert werden. Zum anderen lassen sich Jagdmann zufolge die Wartungs-, Installations- und Update-Zyklen reduzieren.

Nicht nur für die Großen

Es ist nachvollziehbar, dass eine Automatisierung von Abläufen im Rechenzentrum vor allem für Service-Provider und größere Unternehmen mit entsprechend großen IT-Infrastrukturen relevant ist. Doch auch für einen Mittelständler kann es sinnvoll sein, diesen Weg zu beschreiten, so Andreas Livert, Senior Regional Director bei Extreme Networks: „Gerade für mittelständische Firmen ist Automatisierung ein wichtiges Thema. Denn dadurch können sie Ressourcen schonen und die Sicherheit erhöhen.“
Als Beispiel führt Livert mittelgroße Krankenhäuser an. Dort nehme die Zahl an vernetzten Systemen quasi täglich zu, Stichwort Internet of Things. „Das ist unter dem Aspekt des medizinischen Fortschritts ein Segen. Aber gleichzeitig sind neue IT-Sicherheitsmaßnahmen unerlässlich, um Patienten, Einrichtungen und Systeme zu schützen.“ Vor diesem Hintergrund sei ein autonomes Netzwerk unverzichtbar. Es greift beispielsweise auf Techniken wie Künstliche Intelligenz und maschinelles Lernen zurück, um Cyberangriffe zu erkennen und zu blockieren. Notfalls isoliert ein autonomes Netzwerk infizierte Systeme oder ganze Bereiche des Unternehmensnetzes. Wie wichtig solche Maßnahmen sind, belegen erfolgreiche Hacker-Angriffe auf deutsche Kliniken im Jahr 2019, etwa Häuser des Deutschen Roten Kreuzes.

Es kommt darauf an …

Für Martin Rausche, Senior Executive Director for SDWAN VMware EMEA beim gleichnamigen Virtualisierungsspezialisten, ist eine „selbstfahrende IT-Infrastruktur“ allerdings nicht für jeden Mittelständler zweckmäßig: „Ist ein mittelständisches Unternehmen beispielsweise in der Maschinenproduktion tätig, ist es vermutlich seltener der Fall, dass neue PC-Arbeitsplätze bereitgestellt werden müssen. Deswegen lohnt sich wohl kaum eine Lösung, mit der sich diese Aufgabe automatisieren lässt.“ 
Anders sei die Lage in einem Unternehmen, das mit Hilfe von Container-Technologie Software entwickelt. „Dort ist das automatische Generieren und Dekommissionieren von Testumgebungen für den Entwickler und die Qualitätskontrolle von entscheidender Bedeutung für die Effizienz. Die Automatisierung dieser Abläufe ist quasi ein Muss für das Unternehmen“, unterstreicht VMware-Director Rausche.
Um zentrale Rechenzentren zu entlasten, bietet es sich zudem an, sogenannte Edge-Data-Center einzusetzen. Sie werden überall dort platziert, wo die eigentlichen Daten anfallen, zum Beispiel in einer Fertigungsumgebung, in Hotels oder bei einem Einzelhändler. „Mit Hilfe von IoT sowie KI und Machine Learning lassen sich viele Daten vor Ort bearbeiten und analysieren“, erläutert Uwe Müller, Datacenter Sales Lead Germany bei Cisco. Allerdings müssen auch Edge-Rechenzentren in ein zentrales, automatisiertes Management eingebunden werden.
2. Teil: „Startpunkte für Anwender“

Startpunkte für Anwender

Doch wo sollen Unternehmen ansetzen, wenn sie ihr Rechenzentrum in ein „Autonomous Data Center“ umwandeln möchten? „Es gibt viele Möglichkeiten“, erklärt Christian Winterfeldt, Director Sales Modern Datacenter beim IT-Spezialisten Dell: „Die Standardisierung des Infrastruktur-Stacks mit Hilfe von konvergenter Infrastruktur ist ein großer, wenn nicht der größte Schritt in diese Richtung.“
Abhängig von den Workloads und dem Modell, mit dem Rechenzentrumsleistungen bereitgestellt werden, kann es laut Winterfeldt vorteilhaft sein, anstatt mit einer dreischichtigen Architektur (Tier 3) mit einer hyperkonvergenten Tier-2-Umgebung zu starten. Als Vorteil sieht der Dell-Manager an, dass Nutzer bereits mit einem hyperkonvergenten System mit wenigen Knoten (Nodes) ein Software-definiertes Rechenzentrum aufbauen können, das einen hohen Automatisierungsgrad aufweist.
Zudem besteht die Möglichkeit, die Infrastruktur als Hybrid-Cloud zu betreiben, mit einem Zugang zu Public-Cloud-Ressourcen, zum Beispiel von Anbietern wie Amazon Web Services, Microsoft oder Google. „Es gibt also mehrere Wege, ein Rechenzentrum zu automatisieren und eine hybride Cloud-Plattform aufzubauen, ganz nach den jeweiligen Anforderungen der Unternehmensumgebung.“
Bei einem Ansatz, der auf Hyper-converged Infrastructures (HCIs) basiert, sind jedoch einige potenzielle Falltüren zu beachten. Zum einen droht eine Abhängigkeit vom jeweiligen Hersteller der Lösung. Denn ein „Mix and Match“ von HCI-Anwendungen unterschiedlicher Anbieter ist nicht praktikabel. Zudem warnt Andreas Jagdmann von Axians vor möglichen Problemen mit der Skalierung und hohen Lizenzkosten. Sein Rat: „HCIs sollten eher als Ersatz statt als Ergänzung vorhandener Lösungen betrachtet werden.“

Klein anfangen mit Bordmitteln

Bevor ein Unternehmen sich in die Welt der Hyper-converged Infrastructures begibt, lohnt sich in jedem Fall ein Blick auf die vorhandenen Bordmittel. Dazu gehören zum Beispiel Skripts, die Daten von Programmen sammeln, korrelieren und ausgeben. Dieses Verfahren ist bereits seit vielen Jahren vielfach in Gebrauch. „Alle modernen Software-Lösungen für den Einsatz in Rechenzentren oder Netzwerken können inzwischen durch Software-Schnittstellen, also Application Programming Interfaces (APIs), angesprochen und von Skriptsprachen oder Automatisierungslösungen genutzt werden“, erläutert Martin Rausche von VMware.
Eine weitere Option ist, die Automatisierungsfunktionen von Software-Paketen zu nutzen, die ein Unternehmen bereits für die Verwaltung der Netzwerke und Storage-Systeme sowie der IT-Infrastruktur verwendet. Solche Lösungen ermöglichen es beispielsweise, automatisch Backups von Systemkonfigurationen zu erstellen oder Patches auf Servern und Netzwerksystemen einzuspielen.
Positiv ist laut Martin Rausche, dass sich sowohl Skripts als auch API-gesteuerte Managementlösungen meist in ein Konzept integrieren lassen, das die umfassende Automatisierung einer IT- und Rechenzentrumsumgebung zum Ziel hat.
Trends im Bereich IT-Automatisierung
Für das Jahr 2020 prognostiziert das Beratungshaus Gartner, dass sich mehrere neue Ansätze im Bereich IT- und Rechenzen­trums-Automatisierung etablieren, von Hyperautomation bis
hin zu Hybrid Digital Infrastructure Management (HDIM).
Keine Überraschung ist, dass IT-Umgebungen und Rechenzentren in den kommenden Jahren größer und leistungsfähiger werden. Dies ist auf die steigenden Datenmengen zurückzuführen, die beispielsweise Anwendungen im Bereich Internet of Things (IoT) mit sich bringen. So wird Gartner zufolge 2024 die Hälfte der Unternehmensanwendungen für das Internet der Dinge ausgelegt sein.
Das wiederum erhöht den Druck auf die IT-Abteilungen, effi­ziente IT-Infrastrukturen aufzubauen, die sich nach Bedarf an geänderte Anforderungen von Nutzern und Anwendungsentwicklern anpassen lassen.
Hyperautomation: Die skizzierten Trends forcieren die Entwicklung in Richtung Hyperautomation. I&O-Teams (Infrastructure & Operations) werden daher beim IT-Betrieb und Daten­management verstärkt auf KI-gestützte Automatisierungs-Tools zurückgreifen. Im Jahr 2023, so Gartner, werden rund 30 Prozent der Unter­nehmen solche Hilfsmittel einsetzen. Ein Vorteil ist, dass dadurch die Betriebskosten im IT-Bereich sinken - bis 2024 um etwa 30 Prozent. Außerdem hilft Hyperautomation dabei, den Mangel an IT-Fachkräften zu kompensieren. Allein im Bereich Datenmanagement kann eine KI-basierte Automatisierungs-Software den Bedarf an Fachleuten um ungefähr 20 Prozent reduzieren.
Abläufe zu automatisieren, betrifft allerdings nicht nur das unternehmenseigene Rechenzentrum. Denn 2021 werden laut Gartner drei Viertel der mittelständischen und großen Unternehmen hybride IT-Infrastrukturen nutzen, etwa eine Hybrid-Cloud. Außerdem werden sich verstärkt Multi-Cloud-Umgebungen etablieren. Solche komplexen, verteilten IT-Infrastrukturen lassen sich ohne Automatisierungs-Tools kaum noch verwalten.
Hybrid Digital Infrastructure Management: Als zweiten großen Trend für das laufende und die kommenden Jahre hat Gartner das Hybrid Digital Infrastructure Management ausgemacht. Die Grundlage bilden Plattformen, mit denen IT-Fachleute unterschiedliche IT-Umgebungen zentral verwalten: IT-Systeme im Unternehmen, Hybrid- und Multi-Clouds, Edge-Computing-Systeme und Edge-Data-Center. Außerdem dient eine HDIM-Plattform als Steuerzentrale für IT-Prozesse und entsprechende Services sowie für die Automatisierung von Geschäftsprozessen (Business Process Automation).
3. Teil: „Software-defined“

Software-defined

  • Höhere Produktivität und Konsolidierung der IT-Umgebung: Diese beiden Ziele haben für Unternehmen in der DACH-Region Priorität bei Investitionen in Data-Center-Services.
    Quelle:
    IDC, 2019 (n = 210), rundungsbedingt nicht 100 Prozent
In einem sind sich die Rechenzentrumsexperten einig: Eine Automatisierungsstrategie lässt sich am besten mit einer IT-In­frastruktur umsetzen, die Software-defined ist.
In einem Software-defined Data Center (SDDC) wird eine Software-Ebene über die physischen Bestandteile gelegt, also die Server, Storage-Komponenten und Netzwerksysteme. Dadurch ist es möglich, den einzelnen Workloads weitgehend automatisch die benötigten IT-In­frastruktur-Services zur Verfügung zu stellen. Daher erhöht sich die Reaktionsgeschwindigkeit des Rechenzentrums. Außerdem lassen sich die Services besser den einzelnen Nutzern beziehungsweise Kostenstellen zuordnen.
„Mit Software-definierten Ansätzen für Rechenzentren lässt sich eine Automatisierung in vielen Fällen auf einfache Weise erreichen“, bestätigt Martin Rausche von VMware. Er weist allerdings auch darauf hin, dass die Mitarbeiter in Außenstellen ebenfalls auf Anwendungen und Daten im Firmenrechenzentrum und in der Cloud zugreifen wollen, und zwar ohne Verzögerungs­zeiten.
Das lässt sich mit einer weiteren Software-basierten Technik erreichen: SD-WANs (Wide Area Networks). Auch diese Weitverkehrsverbindungen müssen in ein Automatisierungskonzept eingebunden werden. Spezialisten für Netzwerk- und Data-Center-Infrastruktur wie VMware, Cisco, Dell, Extreme Networks und HPE haben Software-defined WANs bereits in ihre Rechenzentrums-Lösungen integriert.

Ansätze der Hersteller

Wer sich auf die Suche nach passenden Lösungen für die Automatisierung des Betriebs von Rechenzentren begibt, sieht sich mit einer beeindruckend – oder auch erschreckend – großen Anzahl von Anbietern und unterschiedlichen Ansätzen konfrontiert.
Storage- und Server-Spezialisten wie NetApp, Brocade, Dell EMC, HPE und Fujitsu haben das Thema ebenso aufgegriffen wie Anbieter, die aus der Netzwerkecke kommen. Dazu zählen beispielsweise Arista, Cisco, Extreme Networks und Juniper Networks. Aber auch Unternehmen aus dem IT-Management- und Open-Source-Umfeld wie BMC und Red Hat beziehungsweise IBM haben eigene Lösungen für die Automatisierung von Rechenzentren und Cloud-Infrastrukturen in petto.
Zu den interessantesten Neuentwicklungen zählt das Projekt Magna von VMware. Bei ihm kommen Algorithmen für Künstliche Intelligenz beziehungsweise Machine Learning zum Einsatz. Die Algorithmen lernen anhand von Daten, welche Parameter geändert werden müssen, damit die IT-Umgebungen optimal funktionieren. Derzeit befindet sich Magna noch im Teststadium. Ein erstes Einsatzfeld ist die Optimierung der Lese- und Schreibgeschwindigkeit von vSANs (Virtual Storage Area Networks).
Der Netzwerkspezialist Cisco hat mit der Application Centric Infrastructure (ACI) eine Software-basierte Netzwerkinfrastruktur für Software-defined Data Center entwickelt. Das SDDC lässt sich sowohl mit Produkten von Cisco als auch mit Open-Source-Lösungen wie Ansible, Puppet oder Python automatisieren.
Insgesamt erfolgt die Automatisierung von Rechenzentren auf vier Ebenen: Applikation, Künstliche Intelligenz für den Betrieb, Infrastruktur und Intelligent Infrastructure. Dabei gewährleistet die Lösung, dass ein Netz nach den vom Anwender definierten Regeln automatisch an jeder Stelle bereitgestellt wird, inklusive Private und Public Clouds.
Doch Rechenzentren werden in der Praxis vor allem für Applikationen betrieben. Diese können lokal, verteilt oder in der Cloud residieren. Anwendungen automatisch an den richtigen Orten und mit den richtigen Ressourcen bereitzustellen, ist Aufgabe von Cisco AI Ops Layer. Neben einer Container-Plattform von Cisco ist zudem die CloudCenter Suite ein Teil der Lösung. Die Suite stellt die Anwendungen bereit und übernimmt auch die Abrechnung der genutzten IT-Ressourcen.
4. Teil: „Autonomous Data Center“

Autonomous Data Center

  • Bereits im Einsatz: Software-definierte Infrastrutkuren werden schon von mehr als einem Viertel der deutschen Unternehmen genutzt.
    Quelle:
    IDC, 2019 (n = 2010)
Der Hardware- und Speicher-Hersteller Dell Technologies und der Netzwerkspezialist Extreme Networks wiederum wollen den Gedanken des autonomen Rechenzentrums oder gar des autonomen Unternehmens in die Tat umsetzen.
Dell hat mit PowerOne ein All-in-One-System für das Rechenzentrum entwickelt. Die konvergente Infrastruktur stellt Rechenleistung, Speicherkomponenten und Netzwerksysteme bereit. Eine neu entwickelte, API-basierte Management-Software hilft dem Administrator dabei, sämtliche Abläufe innerhalb dieser All-in-One-Lösung zu automatisieren. Mit einem der nächsten Releases soll Dells PowerOne darüber hinaus die Möglichkeit erhalten, über APIs Infrastrukturkomponenten autonom bereitzustellen oder zu modifizieren.
Ein Beispiel: Eine Datenbank oder eine Software für die Lagerverwaltung benötigt für einen erhöhten Abverkauf zum Quartalsende mehr Performance und Kapazität. Die Anwendung nutzt Algorithmen für Künstliche Intelligenz beziehungsweise Machine Learning, um diesen Mehrbedarf automatisch zu ermitteln. Anschließend sendet sie über die Anwendungsschnittstelle an Power­One einen entsprechenden Befehl, der im Hintergrund die Storage-Einheiten erweitert, neue Server bereitstellt und die notwendigen Netzwerk-Ports hinzufügt.
Das Unternehmen Extreme Networks setzt bei seinem Konzept eines Autonomous Enterprise auf eine sogenannte Netzwerk-Fabric. Das Kennzeichen einer solchen Fabric ist eine flache, maschenförmige Struktur, keine hierarchische Netzwerk-Infrastruktur mit Core-, Aggregation- und Edge-Switches.
Der Software-basierte Ansatz von Extreme ermöglicht es, Ressourcen im Rechenzentrum automatisch zur Verfügung zu stellen.
„Entsprechende Router und Switches lassen sich bei­spielsweise innerhalb von Sekunden konfigurieren“, erklärt Extreme-Networks-Manager Andreas Livert. „Das Ziel ist, dass die Netzwerktechnologie autonom Aufgaben sowohl im Bereich Administration als auch im Bereich IT-Sicherheit übernimmt. KI sorgt zudem dafür, dass das autonome Netz dazulernt und seine Fähigkeiten kontinuierlich steigert.“
Das entlastet die IT-Teams in Unternehmen. Diese müssen sich laut Livert so nicht mehr ständig mit der Fehleranalyse oder dem laufenden Betrieb des Netzwerks beschäftigen, sondern haben mehr Zeit, den Mitarbeitern Netzwerk-Ser­vices zur Verfügung zu stellen.
Extreme Networks spricht mit seinem Konzept nicht nur Unternehmen an, sondern auch öffentliche Einrichtungen wie Schulen, Kliniken und Behörden, also Organisationen, die in der Regel eher knapp bei Kasse sind. Sie könnten mit der Lösung von Extreme Networks die bereits vorhandene
IT-Infrastruktur weiterhin nutzen und sich dennoch die notwendigen Freiräume für ihre Digitalisierungsvorhaben verschaffen.
5. Teil: „Nicht alles ist Software-defined“

Nicht alles ist Software-defined

Es sind jedoch nicht nur Trend-Technologien wie Software-defined Networking und Künstliche Intelligenz, die den störungsfreien Betrieb eines automatisierten Rechenzentrums sicherstellen. Sich wiederholende Tätigkeiten dem Menschen abzunehmen betrifft nicht nur die Konfiguration von Servern, Storage-Systemen, Netzwerken und Benutzerkonten. Auch die „Mechanik“ hat in großen Rechenzentren noch ihren Platz, wie Thomas King von DE-CIX bestätigt: „Vor allem bei der Verkabelung und Vernetzung ist in Rechenzen­tren ein Trend zur Automatisierung zu erkennen.“
Ein Beispiel sind laut Thomas King Roboter, die beim Internetknoten bereits im Praxis-Einsatz sind: „Wir haben als erster Internet-Exchange einen Verkabelungsroboter eingeführt, damit der Auf- und Umbau von Glaserfaser-Infrastrukturen jederzeit und ohne menschliches Zutun möglich ist.“
Allerdings haben die Mechanisierung und Automatisierung bei den physischen Komponenten eines Rechenzen­trums auch ihre Grenzen: „Der Aufbau von Elementen wie Racks und Stromkabeln sowie der Einbau von Switches und Routern wird weiterhin manuell erfolgen“, erklärt Thomas King. Der Grund: Solche Tätigkeiten auf Roboter zu ver­lagern rechne sich schlichtweg nicht. Gute alte Handarbeit von Menschen ist in diesen Fällen am Ende billiger.

Stromversorgung

Ein weiterer wichtiger Faktor, der bei der Automatisierung von Data-Centern zu berücksichtigen ist, sei die Stromversorgung, betont Simon Feger, Produkt-Support-Manager bei Eaton. Das Unternehmen bietet unter anderem Lösungen für das Energiemanagement von Rechenzentren an.
„Bereits minimale Schwankungen der Spannung oder Frequenz können gravierende Folgen haben“, so Feger. Abhilfe schaffen zum Beispiel unterbrechungsfreie Stromversorgungen, kurz USVs. Sie kompensieren kurzfristige Ausfälle oder Störungen in der Energieversorgung des Rechenzentrums.
„Bei längeren Stromausfällen reicht das allerdings nicht aus. Hier sind Power-Management-Lösungen notwendig. Sie leiten Prozesse auf noch funktionsfähige Teile der Infrastruktur um, sodass der Betrieb aufrechterhalten werden kann. Das läuft automatisiert und vollkommen autonom ab“, erläutert Simon Feger.
Moderne Power-Management-Lösungen wie der Intelligent Power Manager (IPM) von Eaton sind nach Angaben des Fachmanns zum Beispiel in der Lage, virtuelle Maschinen (VMs) bei Bedarf in andere Rechenzentren auszulagern. „Dadurch lässt sich ein unkontrolliertes Herunterfahren vermeiden und unternehmenskritische Anwendungen können weiterhin ausgeführt werden.“

Fazit & Ausblick

Der Trend ist eindeutig: Rechenzentren wandeln sich zu einem zentralen Bestandteil serviceorientierter IT-Organisationen, die Mitarbeitern, Kunden und Partnern standardisierte IT-Ressourcen zur Verfügung stellen. Und das muss möglichst schnell, flexibel und kostengünstig erfolgen.
Umsetzen lässt sich das nur, wenn große Teile der Rechenzentrums-Infrastruktur und -Services „autonom fahren“, also so automatisiert wie nur möglich ablaufen. Ähnlich wie die Automobilhersteller, die bereits äußerst automatisiert Fahrzeuge produzieren, sind die Anbieter von IT-Systemen auf diesem Weg bereits ein gehöriges Stück vorangekommen. Neben Software-defined-Technologien tragen dazu in beträchtlichem Maß Künstliche Intelligenz und Machine Learning bei.
Denn vor wenigen Jahren wäre ein Szenario, wie es Uwe Müller von Cisco beschreibt, noch undenkbar gewesen: „Mit einer modularen, abgestimmten und effizienten Rechenzentrumslandschaft können bereits heute drei IT-Fachleute mehr als 20 weltweit verteilte, unterschiedliche Data-Center-Fa­brics verwalten. Für das Management von mehr als 3000 Blade-Servern reichen zwei Administratoren aus.“
Und sollten Künstliche Intelligenz und maschinelles Lernen in noch größerem Umfang in die Rechenzentren Einzug halten, dann wird künftig vielleicht nur noch ein einzelner Supervisor aus Fleisch und Blut für den Fall der Fälle erforderlich sein. Das Tagesgeschäft sollte sich dann weitgehend von selbst erledigen. So erhalten Administratoren die notwendigen Freiräume und können sich anderen, strategisch wichtigeren Aufgaben widmen. Und sie können so schnell und flexibel agieren, wie man es von externen Cloud-Providern gewohnt ist.
Lösungen für die Automatisierung von Rechenzentren (Auswahl – Teil 1)
6. Teil: „Im Gespräch mit Andreas Jagdmann von Axians Networks & Solutions“

Im Gespräch mit Andreas Jagdmann von Axians Networks & Solutions

  • Andreas Jagdmann: Senior Solutions Consultant bei Axians Networks & Solutions
    Quelle:
    Axians
Wer sein Data-Center nicht automatisiert, vergibt die Chance, seine IT-Umgebung beweg­licher und sicherer zu machen, erläutert Andreas Jagdmann, Senior Solutions Consultant beim IT-Dienstleister Axians Networks & Solutions. Speziell für Mittelständler kommen als Alternative zur Automatisierung der IT-Landschaft außerdem Cloud-Services in Betracht.
com! professional: Herr Jagdmann, auf welche Herausforderungen treffen Sie bei Kunden, wenn es um die Automatisierung von Rechenzentren geht? Gibt es beispielsweise Data-Center, die sich nicht automatisieren lassen?
Andreas Jagdmann: Gesetzliche Vorgaben wie EU-weite Regularien sowie Forderungen von Lieferanten und Abnehmern, etwa nach ISO-Zertifizierungen, gelten auch für automatisierte Rechenzentren. Diese zu erfüllen, stellt eine Hürde bei der Einführung der Automatisierung dar. Häufig setzen Kunden auch Lösungen ein, die sich nicht konvertieren lassen und die wir deswegen isolieren müssen. Schwierigkeiten bereitet es zudem, sich widersprechende Anforde­rungen bezüglich Sicherheit, Agilität und Integration in Einklang zu bringen.
com! professional: Welche Rolle spielen Ansätze wie Hyper-converged Infrastructure (HCI)?
Jagdmann: HCIs lassen sich zwar meist in ein Rechenzentrum integrieren. Sie sollten aber eher als Ablösung statt als Ergänzung bestehender Technologien verstanden werden. Erst dann zeigen sich Einsparungen. Gleichzeitig kann eine HCI hohe Lizenzkosten verursachen. Diese sollten die Unternehmen einplanen. Außerdem skaliert eine solche Lösung unter Umständen nicht in der Größenordnung, die sich Anwender erhoffen. Ein dritter Punkt: Der Einsatz von HCIs bedeutet immer die Bindung an einen Hersteller.
com! professional: Warum sollten Unternehmen überhaupt Rechenzentrumsfunktionen automatisieren?
Jagdmann: Weil sie dadurch ein höheres Sicherheitsniveau erreichen. Die Automatisierung steigert die Zuverlässigkeit und die Agilität eines Data-Centers, weil dadurch menschliche Fehler vermieden werden und sich Installations-, Wartungs- und Update-Zyklen minimieren lassen.
com! professional: Welche Automatisierungsfunktionen in Netzwerk und Rechenzentrum können generell bereits heute genutzt werden?
Jagdmann: Die Automatisierung des Patch-Managements gehört auf jeden Fall zu den gebräuchlichen Automatisierungsfunktionen im Netzwerk und Data-Center: Sie ist schon seit über zehn Jahren möglich.
Heute ist es außerdem notwendig, Sicherheitsmechanismen in alle Flows, also Datenflüsse im Netzwerk, zu integrieren, um externe und interne Gefahren abzuwehren. Zu diesen Schutzsystemen gehören beispielsweise die Zweifaktor-Authentifizierung für und mit Applikationen sowie eine Verschlüsselung für alle Datenverkehrswege.
com! professional: Wie sollten IT-Abteilungen vorgehen, wenn sie Rechenzentren automatisieren wollen?
Jagdmann: Der erste Schritt, den IT-Abteilungen vor der Automatisierung eines Rechenzentrums gehen müssen, besteht da­rin, Prozesse und Workflows so zu standardisieren, dass sie möglichst allgemeingültig sind. Unserer Erfahrung nach stellt dies für Unternehmen eine Herausforderung dar und braucht Zeit. Die eigentliche Automatisierung im Rechenzentrum kann erst danach beginnen.
Dass sich die Umstellung lohnt, zeigt folgendes Beispiel: Ein regional tätiger Service-Provider baute innerhalb eines Jahres eine komplette Automatisierung des Customer-On-Boardings auf. Seit Inbetriebnahme der Lösung wurde der Prozess, der vorher teilweise mehrere Wochen dauerte, auf weniger als einen Tag verkürzt. Menschliche Eingriffe sind nun überflüssig und Fehler innerhalb der Workflows wurden eliminiert.
com! professional: Wie stehen denn die Netzwerk- und Data-Center-Administratoren der Automatisierung gegenüber? Haben sie Angst vor dem Verlust von Kontrollmöglichkeiten beziehungsweise ihrer Arbeitsplätze?
Jagdmann: Nach unserer Erfahrung ist die Angst, die Kontrolle zu verlieren, eher selten anzutreffen. Die Netzwerk- und Data-Center-Administratoren müssen jedoch neue Fertigkeiten erwerben und sich auf veränderte Arbeitsabläufe einstellen. Im Umkehrschluss sind Arbeitsplätze gefährdet, wenn Mitarbeiter unflexibel gegenüber neuen Technologien sind und keine Lernbereitschaft zeigen.

mehr zum Thema