Cloud
22.03.2023
Mehr Effizienz fürs Rechenzentrum
1. Teil: „Die Cloud auf Autopilot fahren“

Die Cloud auf Autopilot fahren

Shutterstock / ZinetroN
Um der wachsenden Komplexität im Rechenzentrum Herr zu werden, bieten sich mächtiger werdende Automatisierungslösungen an.
Ein grundlegender Treiber für die Automatisierung liegt in der wachsenden Komplexität der IT: Hy­bride oder gar Multi-Cloud-Umgebungen machen etwa die Administration von Infrastruktur, Netzwerken, Anwendungen und Nutzern zu einem Herkulesakt. Die IT-Teams sind für die lokalen und die cloudbasierten Umgebungen verantwortlich und verwenden dafür zudem oft unterschiedliche Tools. Solche manuellen Prozesse machen eine effektive Wartung, Skalierung und Sicherung der Ressourcen und Applikationen praktisch unmöglich.
Matthias Pfützner, Senior Solution Architect Cloud beim Software-Hersteller und Linux-Spezialisten Red Hat, führt an: „Schon 2020 prognostizierten die Marktforscher von Forrester, dass Automatisierung für Unternehmen zu einer geschäftlichen Notwendigkeit wird. Da nun viele von ihnen hybride Cloud-Umgebungen aufbauen, ist es dringend notwendig, bei allen Elementen und Prozessen in der Cloud dieselbe Sorgfalt walten zu lassen wie im eigenen Rechenzentrum.“
Die Automatisierung von Abläufen in der Cloud wird für viele Unternehmen zur zentrale Aufgabe. Wer sich heute noch keine Gedanken darüber macht, könnte morgen zu spät kommen.

Vorteile der Cloud-Automatisierung

Was im Rechenzentrum gilt, gilt auch für die Cloud, wo sich praktisch sämtliche Abläufe automatisieren lassen. Peter Goldbrunner, Vice President und General Manager Central Europe beim Multi-Cloud- und Data-Center-Spezialisten Nutanix, drückt es so aus: „Cloud-Workloads manuell bereitzustellen und zu betreiben, ist zeitaufwendig, mühsam und fehleranfällig. Von diesen Herausforderungen befreit Cloud-Automatisierung, indem sie den Workloads mittels Orchestrierung und ohne menschliches Zutun innerhalb von Minuten statt Wochen und Monaten die benötigten Cloud-Ressourcen zuordnet und bereitstellt und für deren reibungslosen Betrieb sorgt.“
Die Unternehmen entlasten dadurch ihre IT-Teams, die sich sinnvolleren Aufgaben statt reiner Verwaltungstätigkeit widmen können. Gleichzeitig erhöhen die Unternehmen damit die Zufriedenheit der Anwender – ob im Unternehmen oder extern. Denn die Verfügbarkeit der bereitgestellten Services und Anwendungen steigt, während ihre Fehleranfälligkeit sinkt. Skalierungsprobleme gehören der Vergangenheit an und alle Schritte sind einer ordentlichen Governance unterworfen.
„Die Cloud ist kein Selbstläufer“, schränkt Severin Braun ein, Chief Product Officer beim Multi-Cloud-Data-Service-Provider Plusserver mit Sitz in Köln. „Die Verwaltung von Cloud-Ressourcen, Monitoring, Security und Co. erfordert dedizierte Expertise und vor dem Hintergrund des Fachkräftemangels steht diese nur bedingt zur Verfügung. Das gilt insbesondere für die Nutzung von Public-Cloud-Angeboten.“ Experten für die Hyperscaler-Lösungen seien sehr gefragt, da die Cloud-Anbieter zwar beeindruckende Lösungen zur Verfügung stellten, die Betreuung jedoch den Nutzern überließen. Wenn dann noch multiple Clouds zum Einsatz kommen sollten, steige die Komplexität rapide an.
„Durch die Erweiterung der bereits im eigenen Rechenzentrum existierenden Automatisierungsverfahren auf die Cloud wird auch die Cloud-Nutzung für die Mitarbeitenden transparent und folgt etablierten internen Prozessen“, betont Matthias Pfützner. „Zudem lässt sich durch Automatisierung der Einsatz von mehreren verschiedenen Clouds vereinfachen, weil eine Abstraktionsschicht zwischen die unterschiedlichen Eigenschaften der jeweiligen Clouds und die Endnutzer eingezogen wird. Davon abgesehen bietet die Cloud-Automatisierung selbstverständlich alle Vorteile, die Automatisierung generell bietet, etwa höhere Effizienz, weniger Fehler und Kosteneinsparungen.“

Workloads, Container, Migration

Cloud-Automatisierung eignet sich besonders gut für das Performance- und Lebenszyklusmanagement von Workloads. „Überwacht zum Beispiel ein APM-Tool (Application-Performance-Management) eine bestimmte Arbeitslast und misst ihre Leistung, dann kann Cloud-Automatisierung dafür sorgen, dass Alerts des APM-Werkzeugs automatisch Reaktionen und Anpassungen auslösen und vornehmen“, erklärt Peter Goldbrunner.
„Werden etwa mehr Ressourcen benötigt, um das definierte Leistungsniveau aufrechtzuerhalten, lassen sich zusätzliche Cluster, Container-Instanzen und so weiter automatisch bereitstellen und in Betrieb nehmen. Da speziell Cloud-Workloads in der Regel nicht das ewige Leben haben, spielt Cloud-Automatisierung auch hier ihre Vorteile aus. So lassen sich die entsprechenden Ressourcen wieder automatisch stilllegen, wenn eine Arbeitslast nicht mehr oder nur noch in geringerem Umfang benötigt wird.“
Plusserver-Manager Severin Braun sieht auch die Möglichkeit der Automatisierung einzelner Workloads, zum Beispiel über Kubernetes. „Das Stichwort hier lautet ,state­less‘: Mit diesem Begriff beschreibt die IT Prozesse, die vollkommen unabhängig von vorangegangenen Vorgängen sind. Für die IT-Infrastruktur bedeutet das zum Beispiel, dass für die Ausführung einer Anwendung alle benötigten Daten – also auch die Beschreibung der Infrastrukturkomponenten – mitgeliefert werden. Vorteil dieses Ansatzes ist, dass der Container ein für sich geschlossenes System darstellt und im Prinzip immer und überall gestartet, dupliziert oder entsorgt werden kann. Kuber­netes übernimmt den Betrieb des Workloads und stellt falls notwendig neue Ressourcen zur Verfügung.“
Braun sieht als einen weiteren Anwendungsfall die Cloud-Migration: „Die softwareartige Form von Infrastruktur bietet die Möglichkeit, sämtliche Ressourcen zunächst präzise zu definieren und dann auf einen Schlag zu konfigurieren. Dadurch sind Unternehmen in der Lage, den Aufbau ihrer IT-Infrastruktur längerfristig zu konzipieren und ihn jederzeit im Quellcode als Referenz festzuhalten. Dieser Vorteil sollte keinesfalls unterschätzt werden, denn in der Praxis ist die Überführung von Geschäftsprozessen in die Cloud eine große Herausforderung.“
Mit einer Cloud-Plattform sowie dem an die Prozesse an­gepassten Infrastruktur-Code ließen sich solche Aufgaben deutlich vereinfachen. Infrastructure as Code reduziere zudem die Fehleranfälligkeit, da die Provisionierung der Infrastruktur effizient und reproduzierbar sei. Dazu weiter unten mehr.

Komplexität und Effizienz

Am meisten profitieren Unternehmen mit Multi-Cloud-Umgebungen von einer Cloud-Automatisierung. Denn diese sind aufgrund ihrer Komplexität am anfälligsten für menschliche Fehler. „Cloud-Automatisierung reduziert das Komplexitätsniveau für die Administratoren, indem sie an ihrer Stelle viele Managementaufgaben automatisiert erledigt. Ferner erleichtert sie Anwendungsentwicklern das Leben erheblich“, erklärt Goldbrunner. „Diese können sich dadurch sozusagen von den Betriebsteams emanzipieren und die Ressourcen und Umgebungen automatisch bereitstellen lassen, die sie für die Entwicklung und das Testen neuer Anwendungen oder Releases benötigen. Darüber hinaus schafft Cloud-Automatisierung mehr Transparenz. Die Unternehmen erhalten Einblicke in ihren tatsächlichen Ressourcenverbrauch und können ihn auf Basis dieser Erkenntnisse mittels Standardisierung und konsistenter Konfigurationen optimieren und sogar vorhersagen. So können sie besser planen und für eine gleichbleibende Qualität ihrer Cloud-Services und -Apps sorgen. Weitere Effizienzgewinne lassen sich mit Cloud-Automatisierung zum Beispiel in den Bereichen Zugriffs- und Berechtigungsmanagement oder Datenschutz mittels automatisierter Data-Discovery erzielen.“
Red-Hat-Manager Matthias Pfützner sieht eine breite Palette an weiteren Anwendungsfällen. „Das beginnt zum Beispiel mit der Bereitstellung von virtuellen Maschinen und der Konfiguration von Cloud-Services, erstreckt sich aber auch auf das Anlegen und Anpassen von Cloud-Nutzern sowie die Einrichtung komplexer Services aus einzelnen Komponenten und virtuellen Maschinen. Die Automatisierung kann auch das Anlegen von Backups umfassen und muss dort keineswegs enden.“
2. Teil: „Cloud-Automatisierung in Deutschland“

Cloud-Automatisierung in Deutschland

Nachdem die deutschen Unternehmen hinsichtlich der Cloud lange sehr zögerlich agierten, stellt sich die Frage, ob sie bei der Cloud-Automatisierung ähnlich zurückhaltend sind. Ja, meint Matthias Pfützner. In seinen Augen haben viele Unternehmen noch keine durchgängigen und einheitlichen Automatisierungsstrategien entwickelt, teilweise fehle es sogar noch an Cloud-Strategien. „Das heißt, die Technologie für Cloud-Automatisierung ist verfügbar, Unternehmen müssen das Thema jedoch erst als geschäftliche Notwendigkeit erkennen – sowohl im eigenen Rechenzentrum als auch in der Cloud.“
„Die Antwort hängt von der Perspektive und den Prioritäten der Unternehmen ab“, differenziert Peter Gold­brunner. „Wenn wir auf Firmen blicken, die ihre internen Umgebungen, ob im eigenen Rechenzentrum oder bei einem Hoster, nahtlos mit einer oder mehreren Public Clouds verbinden wollen, also das bisherige Nebeneinander zu einem echten Miteinander weiterentwickeln wollen, dann stellen wir ein großes Interesse und einen entsprechend großen Informationsbedarf in Sachen Cloud-Automatisierung fest.“ Das stehe jedoch immer im Zusammenhang mit der Modernisierung der internen Umgebungen in Richtung einer echten Private Cloud unter Nutzung einer HCI-Software (hyper-converged Infrastructure). Je weiter die Unternehmen auf diesem Weg in die hybride Multi-Cloud bereits gekommen seien, desto höher sei auch der Reifegrad beim Thema Cloud-Automatisierung.
Severin Braun betrachtet die Sache aus einem anderen Blickwinkel: „Obwohl Cloud-Automatisierung den derzeit größeren Herausforderungen wie Fachkräftemangel und steigende Kosten direkt entgegenwirken würde, zeigt sich, dass sie insbesondere im deutschen Mittelstand nur zu einem geringen Teil Anwendung findet.“ Häufige Ursachen dafür seien der zum Teil geringe Reifegrad bezüglich der Cloud-Nutzung allgemein und der Einsatz von Legacy-IT und -Software. „Es gibt ein paar Vorreiter, die Cloud-Automatisierung in Kombination mit dem Einsatz von Kubernetes für sich entdeckt haben.“

Cloud-Automatisierung praktisch umsetzen

Zunächst sollte man sich vor Augen führen, wie das Management der IT-Infrastruktur in vielen Unternehmen abläuft: Wenn eine neue Umgebung hochgefahren werden soll, etwa für die Entwicklung eines neuen Features, dann wird zunächst ein Ticket eröffnet. Der IT-Administrator bearbeitet irgendwann das Ticket und stellt dann die Cloud-Ressourcen über die Plattform des Cloud-Providers zur Verfügung. Im Idealfall bekommt er zum Ende des Projekts die Information, dass die Ressourcen nicht mehr benötigt werden, und fährt die Umgebung wieder herunter. Eine Automatisierung an dieser Stelle könnte bewirken, dass die Bereitstellung wesentlich schneller und reibungsloser vonstattengeht und von möglichst vielen IT-Kollegen ausgeführt werden kann – unabhängig von deren Wissensstand.
„Dafür braucht es eine Art Anleitung, die der Cloud vermittelt, was wann und in welchem Umfang benötigt wird“, führt Braun aus. Diese Anleitung kann mit standardisierten Skripts erzeugt werden und es entstehen IT-Bausteine, deren deskriptive Code-Sprachen Blaupausen für die Provisionierung und Konfiguration von IT-Infrastrukturen generieren. Durch die im Code festgelegten Variablen für unterschiedliche Parameter bleiben die Prozesse für die Bereitstellung konsistent und lassen sich beliebig replizieren. Es läuft also im Endeffekt auf die Nutzung von Infra­structure as Code (IaC) hinaus. Entwickler können sich so mit wenigen Klicks eine persönliche, dynamische und autonome Infrastrukturbasis schaffen, da selbst komplexe Cloud-Umgebungen schnell, fehlerfrei und automatisiert per Code gestartet werden können.“
Laut Pfützner besteht eine Herausforderung bei der Automatisierung in der Cloud in der Auswahl geeigneter Automatisierungslösungen. Die Auswahlkriterien richten sich danach, was das Unternehmen machen will, da nicht jedes Werkzeug alle Funktionen anbietet und sämtliche Anforderungen abdeckt. „Deshalb ist es wichtig, sich für Werkzeuge zu entscheiden, die sich miteinander kombinieren lassen und die gut zusammenspielen.“

Cloud-Orchestrierung als Voraussetzung

Damit Unternehmen automatisierte cloudbasierte Aufgaben flächendeckend verwalten können, benötigen sie eine Cloud-Orchestrierung. Eine solche Orchestrierung gewährleistet eine automatische Ausführung zusammenhängender Workflows und Prozesse. Diese lassen sich über verschiedene Systeme hinweg koordinieren. Vor allem bei häufig durchgeführten und miteinander verwobenen Prozessen macht sich eine Orchestrierung bezahlt. Voraussetzung ist wiederum die Automatisierung der einzelnen Unterprozesse. Beispiele für Cloud-Orchestrierungsplattformen sind Kubernetes, Docker Swarm und Ansible.
Goldbrunner erklärt es so: „Automatisierung und Orchestrierung hängen sehr eng zusammen. Automatisierung meint die automatisierte Ausführung einzelner Schritte oder ganzer Prozesse, zum Beispiel die automatische Provisionierung von Server- oder Speicherressourcen in der Cloud. Orchestrierung geht in diesem Zusammenhang noch eine Ebene höher und automatisiert die Verkettung einzelner automatisierter Prozesse. Sehr schön zeigt sich das am Beispiel der Ressourcenzuweisung. Für die Nutzung einer Cloud-Anwendung müssen Server-, Speicher- und Datenbankressourcen bereitgestellt, richtig dimensioniert und abhängig von schwankenden Lasten optimal ausbalanciert werden. Außerdem müssen während des Lebenszyklus der Anwendung immer wieder Updates eingespielt werden – sowohl auf der Ebene der Ressourcen als auch der Anwendung. Cloud-Orchestrierung bringt die einzelnen automatisierten Schritte und Prozesse in die richtige Reihenfolge und sorgt für ihr harmonisches Zusammenspiel, wie der Dirigent eines Orchesters, nur automatisch.“
3. Teil: „„Das Thema Energie wird immer wichtiger““

„Das Thema Energie wird immer wichtiger“

Sebastian Scheele ist CEO und CTO von Kuber­matic, Hersteller der gleichnamigen cloudnativen Automatisierungsplattform. Er erklärt im Interview, wie sich damit Kubernetes- und cloudnative Operationen automatisieren lassen.
com! professional: Erzählen Sie doch mal kurz die Geschichte von Kubermatic.
  • Sebastian Scheele CEO von Kubermatic
    Quelle:
    Kubermatic
Sebastian Scheele:
Ich bin schon sehr früh mit dem Thema Docker in Berührung gekommen. Eine Herausforderung, die wir damals hatten, bestand darin, wie man das auf mehreren Servern ausrollt. Dann hat Google Kubernetes angekündigt und wir haben uns gedacht, das könnte interessant sein. Wir haben deshalb Meet-ups veranstaltet, um zu sehen, ob es dafür eine Community gibt, und es gab sehr viel Interesse für damalige Verhältnisse. Eine Frage war, wie kann ich Kubernetes – zu der Zeit gab es nur GKE, die Google Kubernetes Engine –, wie kann ich Kubernetes-Cluster einfach managen, ohne dass ich mir alles manuell zusammenbauen muss. Das war extrem. Man musste jede Komponente selbst installieren und es war kompliziert, das Ganze zum Laufen zu bringen. So haben wir angefangen.
com! professional: Hieß Ihr Unternehmen früher nicht mal anders?
Scheele: Docker, Hafen, Kubernetes-Steuermann und als Hamburger Unternehmen sind wir auf das plattdeutsche Loodse gekommen. Wir haben aber nach ein paar Jahren gesehen, dass die Leute mit Kubermatic viel schneller verstehen, was wir eigentlich machen – nämlich Kubernetes-Automation. Besonders die englischsprachigen Leute hatten bei der Aussprache von Loodse Probleme. Jetzt heißt also nicht nur das Produkt Kubermatic, sondern auch das Unternehmen.
com! professional: Welchen Charme hat die Containertechnik, warum ist sie so erfolgreich?
Scheele: Es ist die Standardisierung. Was war die große Hürde, als es Container noch nicht gab? Man musste beim Deployment je nach Applikation unterschiedliche Formate bauen – für Java, für unterschiedliche Linux-Distributionen – und hatte Probleme mit den Abhängigkeiten. Bei Containern habe ich das Standard-Paketierungsformat, in das sich die ganzen Anhängigkeiten reinpacken lassen. Container bieten einen standardisierten Weg, mit dem man von seinem lokalen Rechner über Entwicklungs-Server bis hin zur Produktion überall das Gleiche deployen kann. Und man kann Kubernetes nutzen, eine standardisierte API, um das Ganze zu verwalten.
com! professional: Kubermatic automatisiert also die Container-/Kubernetes-Abläufe über Multi-Cloud, Edge und On-Premises hinweg?
Scheele: Container sind dafür da, Applikationen zu paketieren, Kubernetes dann, um die Applikation auf einen individuellen Cluster zu deployen. Was wir bei Kubermatic als Kernaufgabe ansehen: Wie manage ich mehrere dieser Cluster? Gerade in größeren Unternehmen, wenn man verschiedene Cloud-Umgebungen betreibt, wenn man On-Premises-Umgebungen hat und wenn das Thema Edge wichtiger wird, sind eine Vielzahl von Clustern zu betreiben und zu verwalten. Da einen standardisierten Layer drüberzulegen, um das hochautomatisiert zu machen, das ist unser Thema. Kubernetes auf Autopilot.
com! professional: Wie sieht das Produkt aus?
Scheele: Im Endeffekt bieten wir zwei Sachen an. Auf der einen Seite die Kubermatic-Kubernetes-Plattform, kurz KKP. Sie hilft, die ganzen Cluster zu verwalten, und ist Open Source. Darauf aufbauend haben wir eine Enterprise-Version mit mehr Funktionalitäten, für die wir auch Support bieten. Parallel dazu haben wir KubeOne, das hilft, einzelne Cluster extrem einfach aufzusetzen und zu verwalten. Wir kümmern uns bei beiden Produkten um das Cluster-Lifecycle-Management: installieren, updaten, reparieren. Kunden bekommen die Software-Supply-Chain Out of the Box bis hin zum Betrieb und können sich so auf die Applikationsentwicklung konzentrieren.
com! professional: Sind die Zielgruppe große Unternehmen, die mit Tausenden Containern jonglieren, oder ist das auch für KMUs interessant?
Scheele: KKP eignet sich eher für Unternehmen, die viele Cluster managen, 50, Hunderte oder Tausende. KMUs mit einzelnen Clustern, vielleicht zwei, drei, fünf, für die haben wir KubeOne.
com! professional: Im Zusammenhang mit Kubernetes ist viel von Kubernetes Operators die Rede. Was verstehen Sie darunter?
Scheele: Das sind Tools, die selbst die Kubernetes-Logik nutzen, um Applikationen zu managen. Ein Erfolgsrezept von Kubernetes ist der Control-Loop. Ich habe einen Ist- und einen Soll-Status und vergleiche die ganze Zeit: Ist meine Applikation noch in dem Status, wie ich sie beschrieben habe? Wenn nicht, dann sorgt der Operator dafür, sie wieder in den gewünschten Status zu bekommen.
Operatoren bringen einen großen Mehrwert bei komplexen Applikationen, etwa eine komplette Automatisierung einer Datenbank. Ein entsprechender Operator kümmert sich nicht nur darum, eine Datenbank auszurollen, sondern macht auch automatisch Updates sowie Backup und Recovery. Wir haben uns gefragt, was der beste Weg ist, Kubernetes zu managen, und kamen auf die Idee, Kubernetes zu nutzen, um Kubernetes zu managen. Als wir angefangen haben, gab es das Wort Operator und die ganzen Tools drumherum noch gar nicht.
com! professional: Kubermatic verspricht, den Bedarf an Ressourcen für das Betreiben und Managen von Kubernetes-Clustern um 95 Prozent zu senken. Wie soll das gehen?
Scheele: Das Thema Energie wird immer wichtiger, viele Unternehmen haben das noch nicht auf dem Radar. Mit Cloudnative habe ich die Möglichkeit, die Infrastruktur dynamisch hoch- und runterzuskalieren. Bei vielen Unternehmen fällt der größte Teil der Work­loads zwischen 9 Uhr und 17 Uhr an. Trotzdem läuft die Applikation 24/7 durch. Wenn die Applikation aber so gebaut ist, dass man sie runterskalieren kann, wenn weniger Last anfällt, und wenn man die ganze Infrastruktur runterskalieren kann oder am Wochenende und in der Nacht die Server komplett ausschalten oder für andere Sachen nutzen kann, dann lässt sich eine ganze Menge einsparen.
4. Teil: „Trend: Infrastructure as Code (IaC)“

Trend: Infrastructure as Code (IaC)

Ein noch nicht ganz so geläufiges Schlagwort, das aber bei der Cloud-Automatisierung eine große Rolle spielt, heißt Infrastructure as Code oder kurz IaC. Grundsätzlich geht es bei dieser Technik darum, auch Hardware-Strukturen als ausführbaren Code zu programmieren, der sich jederzeit problemlos anpassen, duplizieren, versionieren   und löschen lässt.
„Hinter dem Begriff Infrastructure as Code verbirgt sich allgemein das automatisierte Verwalten virtualisierter Ressourcen“, erläutert Severin Braun. „Die zur Ausführung nötige Infrastruktur wie Speicherplatz, Rechenpower oder Netzwerkressourcen werden in Quellcode beschrieben. Infrastructure as Code baut dabei auf modernen Cloud-Technologien wie Virtualisierung und softwaredefinierten Ressourcen auf. Die einzelnen Infrastrukturkomponenten können über den einmal geschriebenen Code jederzeit problemlos angepasst werden, da der manuelle Zugriff auf zugrundeliegende Hardware entfällt. IaC ermöglicht so konsistente, wiederholbare Abläufe zur Provisionierung und Konfiguration von IT-Infrastruktur.“
Auch Nutanxis-Vice-President Peter Goldbrunner hebt den Bezug zur Virtualisierung hervor: „IaC meint die Bereitstellung und Verwaltung von Infrastrukturressourcen mittels maschinenlesbarem Code statt manueller Prozesse. Das erlaubt zum Beispiel die automatisierte statt manuelle Konfiguration von Virtualisierungsinstanzen und deren beliebige Skalierung. Damit das Konzept funktioniert, sind ein Ressourcen-Pool und passende Schnittstellen (APIs) sowie die entsprechende Software nötig.“
Im Grunde handelt es sich bei Infrastucture as Code also um eine Art Administrationskonzept für programmierbare Infrastruktur. „Infrastruktur als Quellcode bietet den DevOps-Teams die Option, ihre virtuellen Maschinen mit Datenbanken und Middleware, aber auch Elemente wie Cluster, Loadbalancer und Netzwerke automatisiert zu betreiben“, so Plusserver-Manager Severin Braun. „Diese dynamische Infrastruktur erlaubt es zudem den Teams, Deployments in ihren Produktivumgebungen schneller auszurollen.“
Um derartigen Code zu erstellen, stehen mehrere Konfigurationswerkzeuge zur Verfügung. In der Regel bieten die Cloud-Provider solche Tools an. Oder man greift zu Open-Source-Anwendungen wie der IaC-Lösung Terraform der amerikanischen Firma Hashi Corp.

mehr zum Thema