Business-IT
09.11.2018
Data Services Platform
1. Teil: „Dateras Speichersystem setzt auf Elastizität“

Dateras Speichersystem setzt auf Elastizität

RechenzentrumRechenzentrumRechenzentrum
 cybrain / Shutterstock.com
Das Start-up Datera erregt mit seiner Data Services Platform große Aufmerksamkeit. Der ambitionierte Storage-Management-Ansatz verspricht maximale Elastizität für hochskalierbare Anwendungen.
Die vielen neuen, komplexen und oft divergierenden Storage-Ansätze erschweren den Unternehmen den Überblick. Mit dem 2013 gegründeten US-Start-up Datera aus Santa Clara gibt es eine weitere im Kern auf Software basierende Speicherlösung. Dabei geht es um mehr als nur um Software-defined Storage (SDS) oder virtuelles SAN (Storage Area Network). Datera selbst spricht von einer Data Services Platform (DSP) und definiert diese so: „Die DSP-Software liefert kontinuierlich verfügbare elastische Data Services für jede skalierbare Anwendung über Rechenzentren, Private und Hybrid Clouds hinweg. Sie ist eine lebendige Plattform, um die Storage-Anforderungen für Container, Clouds, Datenbanken, DevOps und mehr zusammenzubringen, zu vereinfachen und zufriedenstellend zu lösen.”

Flexible Storage-Plattform

Datera stellt für seine DSP mit Elastic Data Fabric (EDF) einen erweiterbaren serverbasierten Speicher bereit. Die Software läuft auf x86-Servern von der Stange, die man bei Datera mitkaufen kann. Alternativ gibt es die Lösung auch bei den Server-Anbietern Cisco, Dell, Fujitsu, HPE und Supermicro.
  • Data Services Platform: Die neue Speicherplattform fasst unterschiedliche Komponenten (Nodes) in einer gemeinsamen Architektur zusammen.
    Quelle:
    Datera
Seit diesem Sommer unterstützt DSP auch Container und Object Storage. Der Software-Ansatz ist offen für verschiedene Architekturen auf der Array-Seite, die auch zu einem gemeinsamen virtuellen System zusammengefasst werden können. Flash-Speicher und traditionelle Festplatten lassen sich miteinander mischen, wobei die DSP-Software für automatisches Tiering und Verschieben der Daten sorgt.
Bei den Anwendungen unterstützt die „unsichtbare Daten-Infrastruktur“ der DSP-Software ein breites Spektrum an Applikationen und Umgebungen einschließlich Datenbanken (relational und nicht relational), virtualisierten Servern, Containern und Orchestratoren, offenen Cloud-Stack-Angeboten und DevOps-Modellen für Continuous Deployment.
Mit Features wie Verfügbarkeitszonen, Stretched Clusters und der Integration von Hybrid Clouds sieht Datera seine DSP-Software als ideale Basis für das automatische Verschieben traditioneller Work­loads von performantem (und teurem) Tier-1-Speicher auf andere Tiering-Formen oder in die Cloud.
Datera strebt mit der DSP-Architektur eine offene Struktur an, die sich nicht von einem bestimmten Storage-Design abhängig machen will. Die Software schafft eine Art virtuelles LAN für die darunterliegenden Speichertypen – ein Vorgehen, das an den Ansatz von DataCore erinnert. Die Kunden befreien sich damit von der Abhängigkeit von einem bestimmten Hersteller, da sie viele technisch verschiedene Komponenten miteinander verbinden können. Die Nodes lassen sich laut Datera in die Infrastruktur „live einfügen oder entfernen“. Man kann ältere Server und Medien länger verwenden, was wiederum zu Kostenersparnissen führt. In der Marketing-Sprache von Datera ist die Rede von „Gold-Standard-Performance und Industrie-Standard-Einsparungen“. Heterogene Nodes lassen sich in einem DSP-Cluster mitei­nander mischen und liefern so ein „Spektrum an Preis-Performance-Varianten, das zu einer bunten Mischung von Applikationen passt“.
Solche Angebote sind auch für Storage- und Server-Lieferanten von Interesse. Große Hersteller wie HPE oder Dell verhandeln offenbar bereits mit Datera, wie CEO Marc Fleischmann berichtet, um OEM-Varianten der DSP-Architektur auf Basis der jeweils eigenen Hardware herauszubringen. Cloud-Anbieter seien ebenfalls eine ideale Zielgruppe für Datera, da sie relativ einfach auf die Software-Lösung umsteigen könnten.
2. Teil: „Lernen von Cloud-Services“

Lernen von Cloud-Services

Ansätze in der IT-Industrie, „Software-defined“-Produkte einzuführen, gibt es viele. Virtualisierte Server kann man sich auch als Software-definiert vorstellen: Mit einer bestimmten Software (Hypervisor) werden lauter virtuelle Maschinen oder kleinere Unter-Server erzeugt, die in sich ein Betriebssystem und mehrere Anwendungen aufnehmen.
Etwas Ähnliches passiert bei Containern: Durch den Einsatz einer speziellen Software werden selbstständig agierende Behälter für Programme und bestimmte Aufgaben eingerichtet und mit einer Orchestrierungs-Software (zum Beispiel Kubernetes) verwaltet. Und virtuelle Netzwerke lassen sich in mehrere Einzelstücke aufteilen, um Durchsatz, Last und die Performance insgesamt zu erhöhen. Viele dieser Neuerungen wurden in den großen Cloud-Rechenzentren ent­wickelt.
  • Performance und Kapazität: Je nach Ausbau der DSP-Architektur ergeben sich unterschiedliche Werte im Verhältnis von Performance und Kapazität.
    Quelle:
    Datera
Um die Besonderheit der Lösung von Datera besser zu verstehen, muss man sich klarmachen, dass cloudähnliche Services – wie man sie von den Infrastruktur-Bereichen Compute und Networking kennt – für Storage lange auf sich warten ließen. Heute wird zwar auf Herstellerseite viel von „Software-defined Storage“ gesprochen, aber die grundsätzliche Problematik wird oft noch nicht angegangen. Der Analyst George Crump von Storage Switzerland hat darauf hingewiesen, dass traditionelle Storage-Systeme von Haus aus nicht für die automatisierte Unterstützung von Multi-Workloads geschaffen wurden.
Rechenzentren sind vielmehr dadurch charakterisiert, dass in ihnen eine große Bandbreite an Workloads stattfindet, die von Datenbanken auf Bare-Metal-Servern bis zu Anwendungen reicht, die in virtuelle Maschinen oder Container gepackt sind. Außerdem nimmt die Menge an unstrukturierten Daten, die verarbeitet und ausgewertet werden, dramatisch zu, Stichwort Big Data. Für all diese Workload-Varianten gibt es darüber hinaus unterschiedliche Anforderungen an Performance und Kapazität.
Die klassische Lösung für das Multi-Workload-Problem, wie es George Crump beschreibt, besteht darin, für jede Art von Workload oder Programm ein ei­genes, abgetrenntes Speichersystem zu schaffen. Wenn neue Workloads oder Applikationen dazukommen, wird damit ein automatisches Provisioning mit Speicherplatz annähernd unmöglich. In der Folge müssen immer mehr Storage-Arrays hinzugefügt werden, was die Infrastrukturkosten in die Höhe treibt und das Management der Systeme erschwert.
Die Antwort der Hersteller auf diese Situation -  nämlich Scale-out-Systeme einzurichten - entschärft zwar das Wachstums- und Performance-Problem, ändert aber nichts daran, dass im Rechenzentrum immer noch verschiedene Speichersilos nebeneinander bestehen. Außerdem sind in der Regel für das Wachstum fast die identischen Nodes erforderlich, während gemischte Cluster nur schwer zu verwalten sind, argumentiert Crump.
Der Ansatz von Datera zielt dagegen darauf ab, in einem Design aus Software und Datenorientierung unterschiedliche Arten von Nodes in einem einzigen Cluster zu unterstützen, der mehrere Rechenzentren einschließlich Cloud-Installationen umfassen kann. Diese Architektur will alle Anforderungen traditioneller Anwendungen mit den Skalierungswerkzeugen moderner, Software-definierter Umgebungen zusammenbringen. Datera spricht auch von einer „application-driven data services platform“.
Ein weiteres Merkmal von Dateras Data Services Platform ist, dass sie zum Schutz von Daten auf Replikation statt auf das heute sehr verbreitete Erasure Coding setzt. Die Replikation wird dabei innerhalb des Clusters von einem einzigen Node aus eingesetzt, was die Netzwerklatenzen reduziert, wie sie bei Erasure Code üblich sind.
DSP kann zudem verschiedene Speichermedien wie Flash und Festplatten gemeinsam verwalten und die Daten je nach aktiver oder mehr „kalter“ Benutzung automatisch platzieren. Mit DSP lassen sich ferner Policies festlegen, mit denen die Daten zwischen verschiedenen Rechenzentren, entfernten Zweigstellen und Cloud-Systemen verteilt werden können.
Um seinen ambitionierten Storage-Management-Ansatz professionell vertreiben und entwickeln zu können, wird Datera sein Team von derzeit etwa 100 Mitarbeitern stark ausbauen oder Partnerschaften eingehen müssen. Das wird sich nicht ohne neue Finanzierungsrunden und die Unterstützung von Venture-Capital-Firmen machen lassen. Dafür sieht sich Dateras CEO Marc Fleischmann gut gerüstet, wie er im Gespräch mit com! professional auf den folgenden beiden Seiten erläutert.
3. Teil: „Im Gespräch mit Marc Fleischmann, CEO und Mitgründer von Datera“

Im Gespräch mit Marc Fleischmann, CEO und Mitgründer von Datera

  • Marac Fleischmann: CEO und Mitgründer von Datera
    Quelle:
    Datera
Marc Fleischmann, aufgewachsen in Deutschland und Frankreich, gründete 2013 mit Freunden das Storage-Start-up Datera. Zuvor hatte er schon viel Erfahrung im Silicon Valley gesammelt, insbesondere bei Hewlett Packard. Fleischmann ist zudem Mitgründer der Open Source Business Alliance.
Im Gespräch mit com! professional blickt er auf die Gründung von Datera zurück und spricht über den ganz besonderen Ansatz seiner Firma.
com! professional: In der IT des Silicon Valley sind etliche Deutsche gelandet. Wie ist es bei Ihnen dazu gekommen?
Marc Fleischmann: Bereits 1977 hatte ich mich in Zeitungsartikeln über das Phänomen Apple und Steve Jobs informiert und darüber, wie das Silicon Valley damals die Computertechnologie revolutionierte.
Die starke Grūnderkultur des Silicon Valley und dessen einzigartige technische und unternehmerische Möglichkeiten übten damals eine starke Faszination auf mich aus. Und als mir Hewlett Packard nach einem Praktikum in Deutschland eine Position als „Research Intern“ in den HP Labs in Palo Alto im Herzen des Silicon Valley in Aussicht stellte, habe ich nicht lange gezögert. Nach einem halben Jahr hat mir HP Labs dann eine dauerhafte Stellung angeboten – und mit diesem Sprungbrett eröffneten sich mir in der Folgezeit viele Möglichkeiten.
com! professional: Welche Lernkurve haben Sie dabei durch­laufen?
Fleischmann: In den HP Labs habe ich in einer Forschungsgruppe gearbeitet, die führend war auf dem Gebiet autonomer verteilter Systeme. Heute bezeichnet man das als Cloud-Computing, aber HP Labs war seinerzeit um Jahre voraus. Die meisten meiner damaligen Kollegen landeten bei Google, aber bei mir war das Interesse an selbstlernenden intelligenten Systemen geweckt, und diese Thematik habe ich nach meiner Zeit in den HP Labs in anderen Firmen immer weiterverfolgt.
com! professional: Wie ergab sich daraus die Datera-Grūndung?
Fleischmann: 2013 war es offensichtlich, dass Cloud-Computing mit seiner einzigartigen Offenheit und Effizienz die IT revolutionieren würde. Solche fundamentalen Architekturumbrüche und die damit verbundenen Chancen ergeben sich in der IT-Branche nur alle zehn bis zwanzig Jahre, und wir - meine Co-Founder und ich - wollten diese Chance auch für uns persönlich nutzen.
com! professional: Welches Problem adressierte Ihr Start-up?
Fleischmann: Das intelligente Speichern und Verwalten von Daten ist ein grundlegendes, schwieriges Problem, insbesondere wenn es sich auf komplette Rechenzentren ausdehnt. Diese Thematik war jenseits der großen Cloud-Anbieter wie Amazon, Azure und Google ungelöst geblieben. Also haben wir uns darauf konzentriert.
com! professional: Warum brauchen Unternehmen dafür die Lösungen von Datera?
Fleischmann: Unsere Systeme lösen das fundamentale Problem, Daten im Rechenzentrum und über Rechenzentren hinweg intelligent und global zu managen. Datera konfiguriert dazu automatisch auf jede einzelne Applikation individuell zugeschnittene „Software-defined“-Lösungen. Dazu definieren die System-Administratoren lediglich die Business-Anforderungen ihrer Applikationen (sogenannte Service Level Objectives), und Datera setzt diese mit einfachen Servern um, wie sie zum Beispiel von Cisco, Dell, Fujitsu, Hewlett Packard oder Supermicro angeboten werden. Prinzipiell kann heute jedes Unternehmen die Verwaltung seiner Daten mit Datera stark vereinfachen und so das Fundament für seine ganz eigene Transformation zu einer Cloud-IT legen.
com! professional: Für welche Branchen trifft das besonders zu?
Fleischmann: Unsere Kunden sind Unternehmen, die einen hohen Automatisierungsgrad für ihre IT anstreben, oft verbunden mit einem sehr dynamischen Geschäftsmodell. Das sind heute praktisch alle Firmen, die über eine Online- oder SaaS-Infrastruktur verfügen. Dieser Ansatz erstreckt sich über ein breites Spek­trum von Branchen, zu denen Banken, Finanzen, Reisen, Gesundheit, Handel, Video-/Musik-Streaming oder Online-Gaming gehören. In dem Maß, wie Unternehmen ihre IT zu Cloud-Systemen transformieren, sehen wir aber auch, wie sich unser Kundenkreis zunehmend auf viele eher traditionelle Unternehmen ausdehnt.
com! professional: Welche Entwicklungsstufen hat die Technologie von Datera durchlaufen?
Fleischmann: Wir konnten glücklicherweise unser Produkt re­lativ zielstrebig entlang der grundlegenden Architektur unserer Vision realisieren. Dabei half uns entscheidend, dass wir ein Weltklasse-Team aufbauen konnten, in dem jedes einzelne Mitglied in seinem Bereich bereits vorher erfolgreiche Produkte entwickelt hatte: Der führende Linux-IO-Experte und ein weiterer Mitarbeiter realisierten unsere Data Plane, ein Entwickler, der an der Stanford-Universität mit den Google-Gründern zusammengearbeitet hatte, entwickelte unsere Hyperscale Control Plane, und einer der Architekten von Cisco UCS schuf unsere einzigartige Applikations-definierte Automatisierung.
com! professional: Welche Rolle spielen Open-Source-Technolo­gien bei Datera?
Fleischmann: Natürlich eine große. Wir als Datera haben zum Beispiel das gesamte Speichersubsystem zu Linux beigetragen (Linux IO). Viele Anbieter wie Dell EMC oder Pure Storage, aber auch Google haben daraus großen Nutzen gezogen, um ihre proprietären durch weniger proprietäre Systeme mit unserer (und anderer) Software zu ersetzen – und nannten diese Systeme dann Software-defined. Allerdings genügt es nicht, die Architekturen der Vergangenheit einfach in Software abzubilden, um den dynamischen Echtzeit-Anforderungen zu entsprechen. Viele dieser Firmen haben deshalb den grundlegenden Wandel weg von den Hardware-definierten Systemen der Vergangenheit hin zu den Service-definierten Systemen der Zukunft verpasst.
Wir verfolgen dagegen konsequent unsere Vision einer Service-definierten Cloud-Architektur, die sich selbstständig rekonfigurieren und die Daten jeder Applikation individuell optimiert verwalten kann, auch über die Grenzen von einzelnen Rechenzentren und Clouds hinweg.
com! professional: Welche Finanziers unterstützen Datera?
Fleischmann: Unsere A-Runde haben wir mit Khosla Ventures, dem legendären Andy Bechtolsheim (Gründer von Sun und Arista) und Pradeep Sindhu (Gründer von Juniper) abgeschlossen, die zusammen 10 Millionen Dollar investiert haben. In unserer B-Runde kam Samsung Ventures hinzu, die zusammen mit den bestehenden Investoren insgesamt nochmals fast 50 Millionen Dollar investiert haben.
com! professional: Wie aktiv mischen Ihre Geldgeber in der Firmenpolitik mit?
Fleischmann: Erstklassische Investoren helfen in der Regel insbesondere mit ihren hervorragenden, weitverzweigten Netzwerken. Unsere Investoren haben uns dahingehend aktiv unterstützt und damit viele Türen zu Kunden und Ideen geöffnet. Aus dem operativen Tagesgeschäft halten sie sich aber weitgehend heraus.
com! professional: Welche Partnerschaften ist Datera mit anderen Unternehmen eingegangen?
Fleischmann: Die Cloud ist kein Ort oder eine Firma, sondern eine neue Art, IT zu betreiben, deren Flexibilität ab einer bestimmten Dynamik viel besser funktioniert als traditionelle Systeme. Wir arbeiten deshalb heute mit führenden Systemherstellern wie Hewlett Packard Enterprise, Fujitsu und Lenovo an OEM-Partnerschaften, da diese Hersteller unsere intelligente Cloud-Software zur Erweiterung ihres eigenen Produktportfolios nutzen wollen. Darüber hinaus haben wir Partnerschaften mit anderen Cloud-Software- oder Software-defined-Anbietern wie VMware, Docker und Mesosphere, um deren Applikationsplattformen mit unserem intelligenten Datenmanagement zu untermauern.
com! professional: Wie gehen Sie den Markt in Europa an?
Fleischmann: In Deutschland haben wir bereits eine Niederlassung in München und arbeiten dort auch direkt mit Fujitsu FTS zusammen. Zudem erweitern wir in Europa unser Partnernetzwerk ständig, momentan in England zum Beispiel mit Boston Limited, in Deutschland mit der Boston GmbH, der itiso GmbH und der Losstech GmbH sowie in Italien mit Computer Gross S.p.A.
com! professional: Welche Innovationen planen Sie derzeit?
Fleischmann: Unser wichtigstes Ziel ist es aktuell, die Intelligenz unserer Systeme drastisch auszubauen. Wir können heute schon viele Anomalien und Fehler erkennen und im laufenden Betrieb automatisch korrigieren – zum Beispiel defekte Speichermedien, Auslastungs-, Temperatur- oder Sicherheitsprobleme.
Um auf diesem Fundament ein vollständig autonomes System zu entwickeln, erweitern wir jetzt unser Team mit Experten für Künstliche Intelligenz, von denen es im Silicon Valley inzwischen recht viele gibt.
com! professional: Was versprechen Sie sich davon?
Fleischmann: Was passiert zum Beispiel, wenn das ganze Rechenzentrum intelligent wird? Wir könnten dann sogar durch globales Machine Learning immer besser Probleme vorhersagen, bevor sie tatsächlich auftreten und den Betrieb unserer Systeme beeinflussen.
Diese Predictive Operations werden es uns erlauben, den Rechenzentrumsbetrieb nochmals drastisch zu vereinfachen. Was fällt denn bei Fotos von Google-Rechenzentren immer besonders auf? Dass sie menschenleer sind. Das wollen wir mit unserer Technologie auch für „normale“ Rechenzentren mög­-
lich machen.

mehr zum Thema