21.07.2015
Überlegt handeln
1. Teil: „Die richtigen Strategien für den Server-Kauf“
Die richtigen Strategien für den Server-Kauf
Autor: Hartmut Wiehr
Foto: Fotolia / hywards
Gute Server kauft man nicht beim Discounter. Der Einkauf will gut überlegt sein und die Qual der Wahl wird in der hybriden, virtuellen Welt der Cloud-Systeme nicht leichter.
Business-IT ist über die Jahre hinweg zu einem immer wichtigeren Produktionsmittel geworden. Von daher ist überlegtes Handeln angesagt. Das gilt für die ganz großen Unternehmen genauso wie für die mittleren und kleineren, die eine Marktnische besetzt halten oder mit ihren Produkten und Dienstleistungen sogar international erfolgreich sind. Es wird viel Geld für IT ausgegeben – und nicht selten verschwendet.
IT-Ausrüstungsgegenstände gibt es nicht an der nächsten Ecke. Das hat einen guten Grund: Die Das muss nicht sein. Je bedeutsamer IT für die Verwirklichung der Geschäftsziele ist, desto genauer müssen Investitionen überlegt werden. Noch befinden wir uns in der Phase des Client-Server-Computings. Klassische Business-Applikationen wie ERP oder Datenbanken geben also den Ton an und erfordern hohe Rechenleistung, geringe oder gar keine Netzverzögerungen und zuverlässige Datensicherung.
Am Horizont zeichnet sich schon die nächste IT-Phase, auch als Platform 3 bezeichnet, ab. Platform 3 steht für Cloud-Umgebungen, mobile Systeme und neue Applikationsformen, die zum Beispiel von ihren riesigen, ständig wachsenden Datenmengen selbst Kopien anfertigen und an sekundären Locations ablegen sollen.
Aber bis es wirklich so weit sein wird, werden wohl noch einige Jahre vergehen. Das Client-Server-Zeitalter ist keineswegs zu Ende, sondern in 99 Prozent aller Unternehmen Realität.
2. Teil: „Der Server ist tot, es lebe der Server!“
Der Server ist tot, es lebe der Server!
Server nehmen im Platform-3-Szenario die zentrale Stellung ein. Das bedeutet, dass die Anwender vor ihren PC-Bildschirmen sitzen und mit Programmen arbeiten, die sie kaum noch beeinflussen können. Fast alles, von E-Mail bis ERP, wird zentral gelagert, verwaltet und gespeichert.
Die gleiche Rolle übernehmen Server, wenn die Anwender von unterwegs oder von zu Hause aus mit ihren Notebooks oder Tablets mit der Zentrale verbunden sind. Nur in der Zentrale findet die eigentliche, klassische elektronische Datenverarbeitung statt.
Server sind nach wie vor wichtig, da sie zentrale Aufgaben der IT übernehmen. Welche das sind, muss bei einem anstehenden Server-Kauf ermittelt werden. Wichtig sind zunächst allgemeine Kriterien, die bei Server-Investitionen berücksichtigt werden müssen: Orchestrierung des Betriebssystems und der Steuerungsaufgaben, leistungsgerechte Ausführung der Anwendungen, Anbindung der stationären und mobilen Endgeräte, Kooperation mit den Speichergeräten sowie deren interne und externe Netzwerkverbindungen. Je nach Firmentyp und -größe kommen weitere Aufgaben hinzu.
Bedarfsanalyse
Martin Stenke, Server Category Manager bei Hewlett-Packard Deutschland, betont die zentrale Position der Server: „Der Server ist tot, es lebe der Server! Eine Zeit lang waren Server als Commodity (Massenware, d. Red.) verschrien. Doch jüngste Entwicklungen zeigen, dass Kunden verstärkt wieder qualitativ hochwertige Server suchen. In Zeiten von sich dynamisch ändernden Geschäftsanforderungen gilt es, einen Hersteller zu finden, der nicht nur das Blech liefert, sondern ein Technologie-Partner ist.“
3. Teil: „Das Betriebssystem des Servers ist zweitrangig“
Das Betriebssystem des Servers ist zweitrangig
Wolfgang Rother, Senior IT Specialist Power Systems bei IBM, verweist auf die wesentliche Rolle der Anwendungen: „Zunächst wird die Auswahl dadurch eingeschränkt, auf welchen Systemen die gewünschten Applikationen verfügbar sind. Was nützt der performanteste, sicherste, verfügbarste, kostengünstigste Server bei der Nutzung einer Anwendung, die darauf nicht ausführbar ist?“
So meint Andreas Kohne, Corporate Development Manager bei dem Beratungs- und Systemhaus Materna: „Muss es eigentlich immer ,the latest and greatest‘ Server-Hardware sein? Ist man damit eventuell doch nur ein Versuchskaninchen für einen Hersteller? Oder sollte man nicht lieber erst einmal abwarten oder eine etwas ältere, aber bewährte Infrastrukturkomponente kaufen?“
Linux oder Windows?
Klaus Gottschalk, Server-Experte bei Lenovo und früher bei IBM, urteilt: „Das Betriebssystem ist für die Server-Auswahl zweitrangig. In der Regel entscheidet man sich für ein Betriebssystem auf Basis der Inhouse-Skills und der Erfahrung. Linux ist sicher im Vormarsch, aber Windows hat eine stabile Benutzergruppe.“
4. Teil: „Die Renaissance der rack-mounted Server“
Die Renaissance der rack-mounted Server
Bei Neuanschaffungen von x86-Servern sollte man vorsichtig bei dem Begriff Standardrechner sein. Auch bei x86-Servern mit gleicher Grundausstattung sind die Spezifikationen der eingesetzten Software genau auf ihre Abstimmung mit dem physikalischen Server oder den Details der geplanten Virtualisierung zu überprüfen. Hat man bereits virtualisiert und entsprechende Erfahrungen gesammelt, oder steht der Umstieg noch bevor? Ist der geplante Hypervisor auch für die CPU des Standard- oder No-Name-Servers lizensiert?
Laut Ulf Schade von Computacenter werden die meisten Server-Käufe heute als Ersatzinvestitionen oder zum Ausbau der jeweiligen Virtualisierungs-Plattform vorgenommen: „Diese Investitionen müssen zur Gesamt-IT-Strategie des Unternehmens passen.“ Um dies in die Praxis umzusetzen, seien Converged- oder Hyper-Converged-Ansätze von Bedeutung. Bei der Konsolidierung von Virtualisierungs-Hosts spielen vor allem CPU-Geschwindigkeit und Größe des ausgebauten RAM eine Rolle, sodass die Kooperation zwischen verschiedenen CPUs und weiteren Komponenten für den Ausbau der Systeme entscheidend ist.
Hyperkonvergente Systeme
Um bei Hyper-Converged-Systemen die erforderlichen Server-Festplatten unterzubringen, gibt es laut Schade derzeit eine Renaissance der Rack-Server. So bietet EMC mit seiner Division VCE eine VXRack genannte große Box aus Server, Speicher und Netzwerk an, die durch weitere Boxen nahtlos skaliert werden kann.
Virtualisierung und Applikationsfunktionen müssen sich auch unter dem Gesichtspunkt der Erweiterung der Systeme ergänzen, Stichwort Scale-out. Hierzu bemerkt Michael Ganzhorn, Bereichsleiter Enterprise Compute Platforms bei dem Systemhaus Fritz & Macziol: „Moderne Applikationen verfolgen in der Regel den Scale-out-Ansatz: Hier kann mit vielen, oft auch virtuellen Servern auf Windows oder Linux eine flexible Architektur aufgebaut werden. Diese funktioniert aber nur dann perfekt, wenn alle Verfügbarkeits- und Skalierungsaspekte durch die Applikation selbst erbracht werden können.“
Als Vorbild in Sachen Standard-Server gelten manchmal die riesigen Rechenzentren von Facebook, Google oder anderen. Sie sollen, so heißt es, statt mit Servern von Markenherstellern fast vollständig mit „einfachen und billigen“ Geräten ausgestattet sein. Und diese kleinen Server von der Stange, die in Clustern zu Server-Farmen zusammengefasst sind, sollen auf diese Weise mindestens die gleiche Leistung wie die Superdomes von Hewlett-Packard, die High-End-Unix-Server von Sun (heute Oracle) oder die Mainframes von IBM erbringen. Jedermann, so wird gesagt, könne das heute genauso machen und spare dabei enorme Beträge, besonders wenn man außerdem günstige Linux-Betriebssysteme und jede Menge Open Source einsetzen würde.
Doch bei dieser populären Einschätzung wird übersehen, dass Unternehmen wie Google ihre „Standard“-Server nach eigenen Vorgaben in großen Stückzahlen assemblieren lassen. Zudem setzen sie neben günstigen, individuell angepassten Linux-Betriebssystemen selbst entwickelte Anwendungen und Tools ein und verfügen überdies über ein sehr gut ausgebildetes IT-Fachpersonal. Ihre unter Webbedingungen laufenden Anwendungen müssen überall ständig erreichbar sein und plötzlich auftretende massenhafte Zugriffe aushalten. Dieses Modell eignet sich nur sehr bedingt als Vorbild für andere Unternehmen.
5. Teil: „Support der Server-Hersteller und Systemhäuser“
Support der Server-Hersteller und Systemhäuser
Man kann daraus aber durchaus Strategien für den eigenen Server-Kauf ableiten. Zum Beispiel, dass man nach einem Gesamtkonzept vorgehen sollte und neben der Ausstattung des Rechenzentrums bei Storage, Netzwerk und so weiter Faktoren wie Ankoppelung an die bestehende Infrastruktur, geplante Einführung neuer Applikationen, Wartung, Support und den Ausbildungsstand der eigenen IT-Abteilung bedenken sollte.
Ein weiterer Gesichtspunkt in diesem Umfeld: Größere Hersteller, die vielleicht etwas teurer sind als andere, sind aller Wahrscheinlichkeit nach noch länger am Markt. Allerdings befindet sich die IT-Industrie gerade in einer Umbruchsphase, in der sehr viele neue Startups auftreten und eine Reihe großer Hersteller zunehmend mit sich selber beschäftigt sind, um wieder in die gewohnten Gewinnzonen vorzustoßen. Dies kommt nicht immer ihrem Ansehen bei alten und potenziellen neuen Kunden zugute, die womöglich mit neuen Aufträgen zögern oder sich an einen Konkurrenten wenden, der für stabiler gehalten wird.
Austausch-Service ist bares Geld wert
Bei Computacenter weist man in diesem Zusammenhang auf Folgendes hin: „Generell ist der x86-Server-Markt sehr umkämpft. Hersteller wie beispielsweise SuperMicro oder Huawai, die noch nicht so etabliert sind, tun sich schwer, signifikante Projektgrößen in Deutschland zu realisieren.“ Meist schafften sie dies nur über einen aggressiven Preiskampf. Kunden sollten die Supportmodelle und Wartungslevel deshalb kritisch hinterfragen: „Denn ein sehr gut funktionierender Support und Austausch-Service sind im Fall eines Fehlers bares Geld wert.“ Allerdings ist davon auszugehen, dass sich auch die neuen Server-Anbieter früher oder später an die gängigen Marktregeln halten werden, um auf Dauer konkurrenzfähig zu werden.
Cloud-Angebote durchzusetzen scheinen. Damit werden starre IT-Infrastrukturen – entweder intern oder extern – zunehmend überflüssig. Funktionen, Preise, Folgekosten, Support oder Zuverlässigkeit der Hersteller von Servern müssen sich messen lassen an den Alternativen der Cloud-Provider. Gerhard Schlabschi, Director Sales Enablement and Competitive Analysis bei Oracle EMEA, gibt den Rat: „Entscheidend ist die Ausgewogenheit des Systems. Für die meisten Anwendungen ist heute nicht mehr die CPU das limitierende Moment, sondern der Datenzugriff. Große Hauptspeicher und der Einsatz von Flash-Technologien sind die maßgeblichen Leistungserbringer.“ Converged und hyper-converged Racksysteme, die von vielen Herstellern angeboten werden und solche Funktionen erfüllen, muss man nicht unbedingt kaufen, sondern kann sie auch mieten.
Wer neue Server-Installationen plant, sollte auch berücksichtigen, dass es mit Hosting- und Cloud-Modellen neue Alternativen zur Inhouse-Architektur gibt, wobei sich vor allem hybride Die Qual der Wahl wird in der hybriden, virtuellen Welt der Cloud-Systeme nicht leichter. Das kann aber auch von Vorteil sein kann.
Cloud Infrastructure
Oracle mit neuen KI-Funktionen für Sales, Marketing und Kundenservice
Neue KI-Funktionen in Oracle Cloud CX sollen Marketingspezialisten, Verkäufern und Servicemitarbeitern helfen, die Kundenzufriedenheit zu verbessern, die Produktivität zu steigern und die Geschäftszyklen zu beschleunigen.
>>
Datenverfügbarkeit
Where EDGE Computing meets 5G
Logistik- und Produktionsprozesse sollen flüssig und fehlerfrei laufen. Maschinen und Personal müssen im Takt funktionieren. Zulieferer haben just-in-time anzuliefern. Dies stellt hohe Anforderungen an die lokale Datenübertragung. Welche Technik bietet sich dazu an?
>>
Schellerer Ausbau
Hessen, OXG und Vodafone schließen Partnerschaft für Glasfaser
Vodafone und OXG starten gemeinsam mit dem Land Hessen eine umfangreiche Ausbau-Offensive für schnelles Internet. Bis 2030 wollen die Unternehmen Glasfaser-Anschlüsse für bis zu 520.000 Haushalte bauen.
>>
Visual Display
Samsung bringt The Frame auf die Art Basel in Basel
Die Basler Ausgabe der Art Basel erhält Besuch von Samsung. Der Samsung-Fernseher "The Frame" wird als offizielles Visual Display der Messe zum Einsatz kommen.
>>