09.11.2018
Data Services Platform
1. Teil: „Dateras Speichersystem setzt auf Elastizität“
Dateras Speichersystem setzt auf Elastizität
Autor: Hartmut Wiehr
cybrain / Shutterstock.com
Das Start-up Datera erregt mit seiner Data Services Platform große Aufmerksamkeit. Der ambitionierte Storage-Management-Ansatz verspricht maximale Elastizität für hochskalierbare Anwendungen.
Die vielen neuen, komplexen und oft divergierenden Storage-Ansätze erschweren den Unternehmen den Überblick. Mit dem 2013 gegründeten US-Start-up Datera aus Santa Clara gibt es eine weitere im Kern auf Software basierende Speicherlösung. Dabei geht es um mehr als nur um Software-defined Storage (SDS) oder virtuelles SAN (Storage Area Network). Datera selbst spricht von einer Data Services Platform (DSP) und definiert diese so: „Die DSP-Software liefert kontinuierlich verfügbare elastische Data Services für jede skalierbare Anwendung über Rechenzentren, Private und Hybrid Clouds hinweg. Sie ist eine lebendige Plattform, um die Storage-Anforderungen für Container, Clouds, Datenbanken, DevOps und mehr zusammenzubringen, zu vereinfachen und zufriedenstellend zu lösen.”
Flexible Storage-Plattform
Datera stellt für seine DSP mit Elastic Data Fabric (EDF) einen erweiterbaren serverbasierten Speicher bereit. Die Software läuft auf x86-Servern von der Stange, die man bei Datera mitkaufen kann. Alternativ gibt es die Lösung auch bei den Server-Anbietern Cisco, Dell, Fujitsu, HPE und Supermicro.
Bei den Anwendungen unterstützt die „unsichtbare Daten-Infrastruktur“ der DSP-Software ein breites Spektrum an Applikationen und Umgebungen einschließlich Datenbanken (relational und nicht relational), virtualisierten Servern, Containern und Orchestratoren, offenen Cloud-Stack-Angeboten und DevOps-Modellen für Continuous Deployment.
Mit Features wie Verfügbarkeitszonen, Stretched Clusters und der Integration von Hybrid Clouds sieht Datera seine DSP-Software als ideale Basis für das automatische Verschieben traditioneller Workloads von performantem (und teurem) Tier-1-Speicher auf andere Tiering-Formen oder in die Cloud.
Datera strebt mit der DSP-Architektur eine offene Struktur an, die sich nicht von einem bestimmten Storage-Design abhängig machen will. Die Software schafft eine Art virtuelles LAN für die darunterliegenden Speichertypen – ein Vorgehen, das an den Ansatz von DataCore erinnert. Die Kunden befreien sich damit von der Abhängigkeit von einem bestimmten Hersteller, da sie viele technisch verschiedene Komponenten miteinander verbinden können. Die Nodes lassen sich laut Datera in die Infrastruktur „live einfügen oder entfernen“. Man kann ältere Server und Medien länger verwenden, was wiederum zu Kostenersparnissen führt. In der Marketing-Sprache von Datera ist die Rede von „Gold-Standard-Performance und Industrie-Standard-Einsparungen“. Heterogene Nodes lassen sich in einem DSP-Cluster miteinander mischen und liefern so ein „Spektrum an Preis-Performance-Varianten, das zu einer bunten Mischung von Applikationen passt“.
Solche Angebote sind auch für Storage- und Server-Lieferanten von Interesse. Große Hersteller wie HPE oder Dell verhandeln offenbar bereits mit Datera, wie CEO Marc Fleischmann berichtet, um OEM-Varianten der DSP-Architektur auf Basis der jeweils eigenen Hardware herauszubringen. Cloud-Anbieter seien ebenfalls eine ideale Zielgruppe für Datera, da sie relativ einfach auf die Software-Lösung umsteigen könnten.
2. Teil: „Lernen von Cloud-Services“
Lernen von Cloud-Services
Ansätze in der IT-Industrie, „Software-defined“-Produkte einzuführen, gibt es viele. Virtualisierte Server kann man sich auch als Software-definiert vorstellen: Mit einer bestimmten Software (Hypervisor) werden lauter virtuelle Maschinen oder kleinere Unter-Server erzeugt, die in sich ein Betriebssystem und mehrere Anwendungen aufnehmen.
Etwas Ähnliches passiert bei Containern: Durch den Einsatz einer speziellen Software werden selbstständig agierende Behälter für Programme und bestimmte Aufgaben eingerichtet und mit einer Orchestrierungs-Software (zum Beispiel Kubernetes) verwaltet. Und virtuelle Netzwerke lassen sich in mehrere Einzelstücke aufteilen, um Durchsatz, Last und die Performance insgesamt zu erhöhen. Viele dieser Neuerungen wurden in den großen Cloud-Rechenzentren entwickelt.
Rechenzentren sind vielmehr dadurch charakterisiert, dass in ihnen eine große Bandbreite an Workloads stattfindet, die von Datenbanken auf Bare-Metal-Servern bis zu Anwendungen reicht, die in virtuelle Maschinen oder Container gepackt sind. Außerdem nimmt die Menge an unstrukturierten Daten, die verarbeitet und ausgewertet werden, dramatisch zu, Stichwort Big Data. Für all diese Workload-Varianten gibt es darüber hinaus unterschiedliche Anforderungen an Performance und Kapazität.
Die klassische Lösung für das Multi-Workload-Problem, wie es George Crump beschreibt, besteht darin, für jede Art von Workload oder Programm ein eigenes, abgetrenntes Speichersystem zu schaffen. Wenn neue Workloads oder Applikationen dazukommen, wird damit ein automatisches Provisioning mit Speicherplatz annähernd unmöglich. In der Folge müssen immer mehr Storage-Arrays hinzugefügt werden, was die Infrastrukturkosten in die Höhe treibt und das Management der Systeme erschwert.
Die Antwort der Hersteller auf diese Situation - nämlich Scale-out-Systeme einzurichten - entschärft zwar das Wachstums- und Performance-Problem, ändert aber nichts daran, dass im Rechenzentrum immer noch verschiedene Speichersilos nebeneinander bestehen. Außerdem sind in der Regel für das Wachstum fast die identischen Nodes erforderlich, während gemischte Cluster nur schwer zu verwalten sind, argumentiert Crump.
Der Ansatz von Datera zielt dagegen darauf ab, in einem Design aus Software und Datenorientierung unterschiedliche Arten von Nodes in einem einzigen Cluster zu unterstützen, der mehrere Rechenzentren einschließlich Cloud-Installationen umfassen kann. Diese Architektur will alle Anforderungen traditioneller Anwendungen mit den Skalierungswerkzeugen moderner, Software-definierter Umgebungen zusammenbringen. Datera spricht auch von einer „application-driven data services platform“.
Ein weiteres Merkmal von Dateras Data Services Platform ist, dass sie zum Schutz von Daten auf Replikation statt auf das heute sehr verbreitete Erasure Coding setzt. Die Replikation wird dabei innerhalb des Clusters von einem einzigen Node aus eingesetzt, was die Netzwerklatenzen reduziert, wie sie bei Erasure Code üblich sind.
DSP kann zudem verschiedene Speichermedien wie Flash und Festplatten gemeinsam verwalten und die Daten je nach aktiver oder mehr „kalter“ Benutzung automatisch platzieren. Mit DSP lassen sich ferner Policies festlegen, mit denen die Daten zwischen verschiedenen Rechenzentren, entfernten Zweigstellen und Cloud-Systemen verteilt werden können.
Um seinen ambitionierten Storage-Management-Ansatz professionell vertreiben und entwickeln zu können, wird Datera sein Team von derzeit etwa 100 Mitarbeitern stark ausbauen oder Partnerschaften eingehen müssen. Das wird sich nicht ohne neue Finanzierungsrunden und die Unterstützung von Venture-Capital-Firmen machen lassen. Dafür sieht sich Dateras CEO Marc Fleischmann gut gerüstet, wie er im Gespräch mit com! professional auf den folgenden beiden Seiten erläutert.
3. Teil: „Im Gespräch mit Marc Fleischmann, CEO und Mitgründer von Datera“
Im Gespräch mit Marc Fleischmann, CEO und Mitgründer von Datera
Im Gespräch mit com! professional blickt er auf die Gründung von Datera zurück und spricht über den ganz besonderen Ansatz seiner Firma.
com! professional: In der IT des Silicon Valley sind etliche Deutsche gelandet. Wie ist es bei Ihnen dazu gekommen?
Marc Fleischmann: Bereits 1977 hatte ich mich in Zeitungsartikeln über das Phänomen Apple und Steve Jobs informiert und darüber, wie das Silicon Valley damals die Computertechnologie revolutionierte.
Die starke Grūnderkultur des Silicon Valley und dessen einzigartige technische und unternehmerische Möglichkeiten übten damals eine starke Faszination auf mich aus. Und als mir Hewlett Packard nach einem Praktikum in Deutschland eine Position als „Research Intern“ in den HP Labs in Palo Alto im Herzen des Silicon Valley in Aussicht stellte, habe ich nicht lange gezögert. Nach einem halben Jahr hat mir HP Labs dann eine dauerhafte Stellung angeboten – und mit diesem Sprungbrett eröffneten sich mir in der Folgezeit viele Möglichkeiten.
com! professional: Welche Lernkurve haben Sie dabei durchlaufen?
Fleischmann: In den HP Labs habe ich in einer Forschungsgruppe gearbeitet, die führend war auf dem Gebiet autonomer verteilter Systeme. Heute bezeichnet man das als Cloud-Computing, aber HP Labs war seinerzeit um Jahre voraus. Die meisten meiner damaligen Kollegen landeten bei Google, aber bei mir war das Interesse an selbstlernenden intelligenten Systemen geweckt, und diese Thematik habe ich nach meiner Zeit in den HP Labs in anderen Firmen immer weiterverfolgt.
com! professional: Wie ergab sich daraus die Datera-Grūndung?
Fleischmann: 2013 war es offensichtlich, dass Cloud-Computing mit seiner einzigartigen Offenheit und Effizienz die IT revolutionieren würde. Solche fundamentalen Architekturumbrüche und die damit verbundenen Chancen ergeben sich in der IT-Branche nur alle zehn bis zwanzig Jahre, und wir - meine Co-Founder und ich - wollten diese Chance auch für uns persönlich nutzen.
com! professional: Welches Problem adressierte Ihr Start-up?
Fleischmann: Das intelligente Speichern und Verwalten von Daten ist ein grundlegendes, schwieriges Problem, insbesondere wenn es sich auf komplette Rechenzentren ausdehnt. Diese Thematik war jenseits der großen Cloud-Anbieter wie Amazon, Azure und Google ungelöst geblieben. Also haben wir uns darauf konzentriert.
com! professional: Warum brauchen Unternehmen dafür die Lösungen von Datera?
Fleischmann: Unsere Systeme lösen das fundamentale Problem, Daten im Rechenzentrum und über Rechenzentren hinweg intelligent und global zu managen. Datera konfiguriert dazu automatisch auf jede einzelne Applikation individuell zugeschnittene „Software-defined“-Lösungen. Dazu definieren die System-Administratoren lediglich die Business-Anforderungen ihrer Applikationen (sogenannte Service Level Objectives), und Datera setzt diese mit einfachen Servern um, wie sie zum Beispiel von Cisco, Dell, Fujitsu, Hewlett Packard oder Supermicro angeboten werden. Prinzipiell kann heute jedes Unternehmen die Verwaltung seiner Daten mit Datera stark vereinfachen und so das Fundament für seine ganz eigene Transformation zu einer Cloud-IT legen.
com! professional: Für welche Branchen trifft das besonders zu?
Fleischmann: Unsere Kunden sind Unternehmen, die einen hohen Automatisierungsgrad für ihre IT anstreben, oft verbunden mit einem sehr dynamischen Geschäftsmodell. Das sind heute praktisch alle Firmen, die über eine Online- oder SaaS-Infrastruktur verfügen. Dieser Ansatz erstreckt sich über ein breites Spektrum von Branchen, zu denen Banken, Finanzen, Reisen, Gesundheit, Handel, Video-/Musik-Streaming oder Online-Gaming gehören. In dem Maß, wie Unternehmen ihre IT zu Cloud-Systemen transformieren, sehen wir aber auch, wie sich unser Kundenkreis zunehmend auf viele eher traditionelle Unternehmen ausdehnt.
com! professional: Welche Entwicklungsstufen hat die Technologie von Datera durchlaufen?
Fleischmann: Wir konnten glücklicherweise unser Produkt relativ zielstrebig entlang der grundlegenden Architektur unserer Vision realisieren. Dabei half uns entscheidend, dass wir ein Weltklasse-Team aufbauen konnten, in dem jedes einzelne Mitglied in seinem Bereich bereits vorher erfolgreiche Produkte entwickelt hatte: Der führende Linux-IO-Experte und ein weiterer Mitarbeiter realisierten unsere Data Plane, ein Entwickler, der an der Stanford-Universität mit den Google-Gründern zusammengearbeitet hatte, entwickelte unsere Hyperscale Control Plane, und einer der Architekten von Cisco UCS schuf unsere einzigartige Applikations-definierte Automatisierung.
com! professional: Welche Rolle spielen Open-Source-Technologien bei Datera?
Fleischmann: Natürlich eine große. Wir als Datera haben zum Beispiel das gesamte Speichersubsystem zu Linux beigetragen (Linux IO). Viele Anbieter wie Dell EMC oder Pure Storage, aber auch Google haben daraus großen Nutzen gezogen, um ihre proprietären durch weniger proprietäre Systeme mit unserer (und anderer) Software zu ersetzen – und nannten diese Systeme dann Software-defined. Allerdings genügt es nicht, die Architekturen der Vergangenheit einfach in Software abzubilden, um den dynamischen Echtzeit-Anforderungen zu entsprechen. Viele dieser Firmen haben deshalb den grundlegenden Wandel weg von den Hardware-definierten Systemen der Vergangenheit hin zu den Service-definierten Systemen der Zukunft verpasst.
Wir verfolgen dagegen konsequent unsere Vision einer Service-definierten Cloud-Architektur, die sich selbstständig rekonfigurieren und die Daten jeder Applikation individuell optimiert verwalten kann, auch über die Grenzen von einzelnen Rechenzentren und Clouds hinweg.
com! professional: Welche Finanziers unterstützen Datera?
Fleischmann: Unsere A-Runde haben wir mit Khosla Ventures, dem legendären Andy Bechtolsheim (Gründer von Sun und Arista) und Pradeep Sindhu (Gründer von Juniper) abgeschlossen, die zusammen 10 Millionen Dollar investiert haben. In unserer B-Runde kam Samsung Ventures hinzu, die zusammen mit den bestehenden Investoren insgesamt nochmals fast 50 Millionen Dollar investiert haben.
com! professional: Wie aktiv mischen Ihre Geldgeber in der Firmenpolitik mit?
Fleischmann: Erstklassische Investoren helfen in der Regel insbesondere mit ihren hervorragenden, weitverzweigten Netzwerken. Unsere Investoren haben uns dahingehend aktiv unterstützt und damit viele Türen zu Kunden und Ideen geöffnet. Aus dem operativen Tagesgeschäft halten sie sich aber weitgehend heraus.
com! professional: Welche Partnerschaften ist Datera mit anderen Unternehmen eingegangen?
Fleischmann: Die Cloud ist kein Ort oder eine Firma, sondern eine neue Art, IT zu betreiben, deren Flexibilität ab einer bestimmten Dynamik viel besser funktioniert als traditionelle Systeme. Wir arbeiten deshalb heute mit führenden Systemherstellern wie Hewlett Packard Enterprise, Fujitsu und Lenovo an OEM-Partnerschaften, da diese Hersteller unsere intelligente Cloud-Software zur Erweiterung ihres eigenen Produktportfolios nutzen wollen. Darüber hinaus haben wir Partnerschaften mit anderen Cloud-Software- oder Software-defined-Anbietern wie VMware, Docker und Mesosphere, um deren Applikationsplattformen mit unserem intelligenten Datenmanagement zu untermauern.
com! professional: Wie gehen Sie den Markt in Europa an?
Fleischmann: In Deutschland haben wir bereits eine Niederlassung in München und arbeiten dort auch direkt mit Fujitsu FTS zusammen. Zudem erweitern wir in Europa unser Partnernetzwerk ständig, momentan in England zum Beispiel mit Boston Limited, in Deutschland mit der Boston GmbH, der itiso GmbH und der Losstech GmbH sowie in Italien mit Computer Gross S.p.A.
com! professional: Welche Innovationen planen Sie derzeit?
Fleischmann: Unser wichtigstes Ziel ist es aktuell, die Intelligenz unserer Systeme drastisch auszubauen. Wir können heute schon viele Anomalien und Fehler erkennen und im laufenden Betrieb automatisch korrigieren – zum Beispiel defekte Speichermedien, Auslastungs-, Temperatur- oder Sicherheitsprobleme.
Um auf diesem Fundament ein vollständig autonomes System zu entwickeln, erweitern wir jetzt unser Team mit Experten für Künstliche Intelligenz, von denen es im Silicon Valley inzwischen recht viele gibt.
com! professional: Was versprechen Sie sich davon?
Fleischmann: Was passiert zum Beispiel, wenn das ganze Rechenzentrum intelligent wird? Wir könnten dann sogar durch globales Machine Learning immer besser Probleme vorhersagen, bevor sie tatsächlich auftreten und den Betrieb unserer Systeme beeinflussen.
Diese Predictive Operations werden es uns erlauben, den Rechenzentrumsbetrieb nochmals drastisch zu vereinfachen. Was fällt denn bei Fotos von Google-Rechenzentren immer besonders auf? Dass sie menschenleer sind. Das wollen wir mit unserer Technologie auch für „normale“ Rechenzentren mög-
lich machen.
lich machen.
Connectivity-as-a-Service
ADN und DE-CIX schließen Partnerschaft
ADN hat einen neuen Kooperationsvertrag mit DE-CIX unterzeichnet. Der Anbieter stellt die physische Infrastruktur und Connectivity-Services bereit, mit denen Partner den Datenverkehr von Unternehmenskunden sicher routen können.
>>
Infragistics
Angular Apps - Daten binden und anzeigen
Infragistics Professional 23.2 enthält ein leistungsstarkes Angular-Datenraster, mit dem Ihre Anwendung Datensätze jeder Größe verarbeiten kann.
>>
Europa Park
ASVG blickt auf eine erfolgreiche Hausmesse zurück
Der Telekom Distributor begrüßte zur Hausmesse viele Partner aus Handel und Industrie im Europa Park Rust und verlieh dort etliche Auszeichnungen.
>>
Microsoft
.NET Smart Components - KI-gestützte UI-Steuerelemente
Microsoft hat .NET Smart Components entwickelt, eine Reihe nützlicher KI-gestützter UI-Komponenten, die sich relativ einfach zu .NET-Anwendungen hinzufügen lassen.
>>