Business-IT
21.07.2015
Überlegt handeln
1. Teil: „Die richtigen Strategien für den Server-Kauf“

Die richtigen Strategien für den Server-Kauf

Server und Arbeitsplatz-PCsServer und Arbeitsplatz-PCsServer und Arbeitsplatz-PCs
Foto: Fotolia / hywards
Gute Server kauft man nicht beim Discounter. Der Einkauf will gut überlegt sein und die Qual der Wahl wird in der hybriden, virtuellen Welt der Cloud-Systeme nicht leichter.
IT-Ausrüstungsgegenstände gibt es nicht an der nächsten Ecke. Das hat einen guten Grund: Die Business-IT ist über die Jahre hinweg zu einem immer wichtigeren Produktionsmittel geworden. Von daher ist überlegtes Handeln angesagt. Das gilt für die ganz großen Unternehmen genauso wie für die mittleren und kleineren, die eine Marktnische besetzt halten oder mit ihren Produkten und Dienstleistungen sogar international erfolgreich sind. Es wird viel Geld für IT ausgegeben – und nicht selten verschwendet.
Das muss nicht sein. Je bedeutsamer IT für die Verwirk­lichung der Geschäftsziele ist, desto genauer müssen Investitionen überlegt werden. Noch befinden wir uns in der Phase des Client-Server-Computings. Klassische Business-Applikationen wie ERP oder Datenbanken geben also den Ton an und erfordern hohe Rechenleistung, geringe oder gar keine Netzverzögerungen und zuverlässige Datensicherung.
Am Horizont zeichnet sich schon die nächste IT-Phase, auch als Platform 3 bezeichnet, ab. Platform 3 steht für Cloud-Umgebungen, mobi­le Systeme und neue Applikationsformen, die zum Beispiel von ihren riesigen, ständig wachsenden Datenmengen selbst Kopien anfertigen und an sekundären Locations ablegen sollen.
Aber bis es wirklich so weit sein wird, werden wohl noch einige Jahre vergehen. Das Client-Server-Zeitalter ist keineswegs zu Ende, sondern in 99 Prozent aller Unternehmen Realität.
2. Teil: „Der Server ist tot, es lebe der Server!“

Der Server ist tot, es lebe der Server!

Server nehmen im Platform-3-Szenario die zentrale Stellung ein. Das bedeutet, dass die Anwender vor ihren PC-Bildschirmen sitzen und mit Programmen arbeiten, die sie kaum noch beeinflussen können. Fast alles, von E-Mail bis ERP, wird zentral gelagert, verwaltet und gespeichert.
  • Martin Stenke, Server Category Manager, Hewlett-Packard Deutschland: „In Zeiten von sich dynamisch ändernden Geschäftsanforderungen gilt es, einen Hersteller zu finden, der nicht nur das Blech liefert, sondern ein Technologie-Partner ist.“
Daran ändert sich auch nichts, wenn die End-PCs der Mitarbeiter nur noch in einem virtuellen Verbund mit den zentralen Servern stehen und sie alle Ein- und Ausgabemasken nur noch als gespiegelte Images sehen. die Rede ist von Virtual Data Infrastructure oder kurz VDI.
Die gleiche Rolle übernehmen Server, wenn die Anwender von unterwegs oder von zu Hause aus mit ihren Notebooks oder Tablets mit der Zentrale verbunden sind. Nur in der Zentrale findet die eigentliche, klassische elektronische Datenverarbeitung statt.
Server sind nach wie vor wichtig, da sie zentrale Aufgaben der IT übernehmen. Welche das sind, muss bei einem anstehenden Server-Kauf ermittelt werden. Wichtig sind zunächst allgemeine Kriterien, die bei Server-Investitionen berücksichtigt werden müssen: Orchestrierung des Betriebssystems und der Steuerungsaufgaben, leistungsgerechte Ausführung der Anwendungen, Anbindung der stationären und mobilen Endgeräte, Kooperation mit den Speichergeräten sowie deren interne und externe Netzwerkverbindungen. Je nach Firmentyp und -größe kommen weitere Aufgaben hinzu.

Bedarfsanalyse

Martin Stenke, Server Category Manager bei Hewlett-Packard Deutschland, betont die zentrale Position der Server: „Der Server ist tot, es lebe der Server! Eine Zeit lang waren Server als Commodity (Massenware, d. Red.) verschrien. Doch jüngste Entwicklungen zeigen, dass Kunden verstärkt wieder qualitativ hochwertige Server suchen. In Zeiten von sich dynamisch ändernden Geschäftsanforderungen gilt es, einen Hersteller zu finden, der nicht nur das Blech liefert, sondern ein Technologie-Partner ist.“
Unternehmen müssen sich vor einem Kauf über die Rolle des neuen Servers im Klaren sein: Was brauchen wir wirklich? In der Regel steht eine konkrete Anforderung dahinter. Man muss deshalb die Anforderungen der Geschäftsprozesse sowie Anzahl und Qualität der Workloads festlegen. Je nachdem wo das neue Gerät aufgestellt werden soll, entstehen zusätzliche Integrationsaufgaben und eventuell auch Kosten: Handelt es sich um ein Stand-alone-Gerät oder um eine physikalische Erweiterung der Architektur im eigenen zentralen Rechenzentrum? Oder soll das Gerät Aufgaben in einer entfernten Zweigstelle oder für die Unterstützung von VDI übernehmen? Gerade die Folgekosten werden häufig übersehen, wie Ulf Schade, Solution Manager Dynamic Datacenter bei dem herstellerübergreifenden Dienstleister Computacenter, betont: „Für viele Unternehmen stehen beim Server-Kauf vor allem die Kriterien Leistungsfähigkeit, Kompatibilität und Anschaffungskosten im Vordergrund. Da während des Lebenszyklus eines IT-Systems aber durchschnittlich 75 Prozent der Aufwendungen in den Betrieb und nur 25 Prozent in deren Anschaffung fließen, sollten Unternehmen bei ihrer Entscheidung auch Kriterien wie Stromverbrauch und Managementeffizienz stärker berücksichtigen.“
3. Teil: „Das Betriebssystem des Servers ist zweitrangig“

Das Betriebssystem des Servers ist zweitrangig

Wolfgang Rother, Senior IT Specialist Power Systems bei IBM, verweist auf die wesentliche Rolle der Anwendungen: „Zunächst wird die Auswahl dadurch eingeschränkt, auf welchen Systemen die gewünschten Applikationen verfügbar sind. Was nützt der performanteste, sicherste, verfügbarste, kostengünstigste Server bei der Nutzung einer Anwendung, die darauf nicht ausführbar ist?“
  • Wolfgang Rother, Senior IT Specialist, Power Systems, IBM: „Was nützt der performanteste, sicherste, verfügbarste, kostengünstigste Server bei der Nutzung einer Anwendung, die darauf nicht ausführbar ist?“
Zu berücksichtigen sind ferner die geplante Nutzungsdauer, die Security-Bestimmungen des Unternehmens, die Festlegung der Redundanz der Server-Komponenten, das Monitoring der Systeme, die Einbindung in die bestehende Infrastruktur des Rechenzentrums und die erforderliche Verfügbarkeit. Reichen 99,9999 Prozent oder müssen es mehr sein? Man muss sich auch überlegen, wie die Finanzierung zu gestalten ist, welche unterschiedlichen Konditionen die Anbieter festlegen und ob sich nicht eventuell der Kauf eines etwas älteren Systems lohnt, das sich bewährt hat und eine geringere Investition verlangt.
So meint Andreas Kohne, Corporate Development Manager bei dem Beratungs- und Systemhaus Materna: „Muss es eigentlich immer ,the latest and greatest‘ Server-Hardware sein? Ist man damit eventuell doch nur ein Versuchskaninchen für einen Hersteller? Oder sollte man nicht lieber erst einmal abwarten oder eine etwas ältere, aber bewährte Infrastrukturkomponente kaufen?“

Linux oder Windows?

  • Andreas Kohne, Corporate Development Manager, Materna: „Muss es eigentlich immer ,the latest and greatest‘ Server-Hardware sein? Ist man damit eventuell doch nur ein Versuchskaninchen für einen Hersteller?“
Relativ einfach fällt die Wahl der Plattform und des geeigneten Betriebssystems aus. Wer etwa noch traditionelle Datenbanken oder andere Applikationen mit großen Datenbanken einsetzt, die viele Batch-Läufe erfordern, sollte weiterhin auf große Unix-Server setzen. Banken, Versicherungen und Behörden scheuen oft zu Recht den Wechsel auf die x86-Architektur, bei deren Server-Hardware sie wahrscheinlich Einsparungen erzielen könnten, aber das Umschreiben oder die Neuentwicklung der Altanwendungen sie wesentlich teurer kommen würde.
Klaus Gottschalk, Server-Experte bei Lenovo und früher bei IBM, urteilt: „Das Betriebssystem ist für die Server-Auswahl zweitrangig. In der Regel entscheidet man sich für ein Betriebssystem auf Basis der Inhouse-Skills und der Erfahrung. Linux ist sicher im Vormarsch, aber Windows hat eine stabile Benutzergruppe.“
4. Teil: „Die Renaissance der rack-mounted Server“

Die Renaissance der rack-mounted Server

Bei Neuanschaffungen von x86-Servern sollte man vorsichtig bei dem Begriff Standardrechner sein. Auch bei x86-Servern mit gleicher Grundausstattung sind die Spezifikationen der eingesetzten Software genau auf ihre Abstimmung mit dem physikalischen Server oder den Details der geplanten Virtualisierung zu überprüfen. Hat man bereits virtualisiert und entsprechende Erfahrungen gesammelt, oder steht der Umstieg noch bevor? Ist der geplante Hypervisor auch für die CPU des Standard- oder No-Name-Servers lizensiert?
  • Klaus Gottschalk, Systems Architect, Lenovo Deutschland: „Das Betriebssystem ist für die Server-Auswahl zweitrangig. In der Regel entscheidet man sich für ein Betriebssystem auf Basis der Inhouse-Skills und der Erfahrung.“
Wer auf der x86-Ebene, die inzwischen viele hochkarätige Server-Angebote kennt, für eine betriebskritische Datenbank, ERP- oder Big-Data-Anwendung einen performanten, abgesicherten physikalischen Server sucht, wird wohl zu einem geclusterten Intel-, AMD- oder eventuell auch ARM-Server greifen, auf dem das Betriebssystem direkt auf der Hardware liegt. Hier gibt es inzwischen durchaus leistungsstarke Server als Alternative zur Unix-Plattform, sofern die Softwarehersteller passende Lösungen anbieten. Selbst IBM als Verteidiger der Mainframe-Bastion hat noch kurz vor dem Verkauf seiner x86-Produktlinie von „Mainframe-artigen x86-Architekturen“ gesprochen.
Laut Ulf Schade von Computacenter werden die meisten Server-Käufe heute als Ersatzinvestitionen oder zum Ausbau der jeweiligen Virtualisierungs-Plattform vorgenommen: „Diese Investitionen müssen zur Gesamt-IT-Strategie des Unternehmens passen.“ Um dies in die Praxis umzusetzen, seien Converged- oder Hyper-Converged-Ansätze von Bedeutung. Bei der Konsolidierung von Virtualisierungs-Hosts spielen vor allem CPU-Geschwindigkeit und Größe des ausgebauten RAM eine Rolle, sodass die Kooperation zwischen verschiedenen CPUs und weiteren Komponenten für den Ausbau der Systeme entscheidend ist.

Hyperkonvergente Systeme

Um bei Hyper-Converged-Systemen die erforderlichen Server-Festplatten unterzubringen, gibt es laut Schade derzeit eine Renaissance der Rack-Server. So bietet EMC mit seiner Division VCE eine VXRack genannte große Box aus Server, Speicher und Netzwerk an, die durch weitere Boxen nahtlos skaliert werden kann.
  • Michael Ganzhorn, Bereichsleiter Enterprise Compute Platforms, Fritz & Macziol: „Moderne Applikationen verfolgen in der Regel den Scale-out-Ansatz: Hier kann mit vielen, oft auch virtuellen Servern auf Windows oder Linux eine flexible Architektur aufgebaut werden.“
Auch Klaus Gottschalk von Lenovo empfiehlt den Einsatz von Rack-Systemen: „Für Einzel-Server, Infrastruktur- und Service-Maschinen würde ich eine rack-mounted Server-Plattform wählen. Bei diesen Standard-Systemen hat man die volle Flexibilität, alles anzuschließen und alles so zu kon­figurieren, wie man es möchte. Rack-mounted Server sind immer noch das Brot- und Buttergeschäft im Server-Markt.“ Man könne so die Komponenten zusammen verwalten und das Zusammenspiel der Server intern über die integrierten LANs und SANs kontrollieren.
Virtualisierung und Applikationsfunktionen müssen sich auch unter dem Gesichtspunkt der Erweiterung der Systeme ergänzen, Stichwort Scale-out. Hierzu bemerkt Michael Ganzhorn, Bereichsleiter Enterprise Compute Platforms bei dem Systemhaus Fritz & Macziol: „Moderne Applikationen verfolgen in der Regel den Scale-out-Ansatz: Hier kann mit vielen, oft auch virtuellen Servern auf Windows oder Linux eine flexible Architektur aufgebaut werden. Diese funktioniert aber nur dann perfekt, wenn alle Verfügbarkeits- und Skalierungs­aspekte durch die Applikation selbst erbracht werden können.“
Als Vorbild in Sachen Standard-Server gelten manchmal die riesigen Rechenzentren von Facebook, Google oder anderen. Sie sollen, so heißt es, statt mit Servern von Markenherstellern fast vollständig mit „einfachen und billigen“ Geräten ausgestattet sein. Und diese kleinen Server von der Stange, die in Clustern zu Server-Farmen zusammengefasst sind, sollen auf diese Weise mindestens die gleiche Leistung wie die Superdomes von Hewlett-Packard, die High-End-Unix-Server von Sun (heute Oracle) oder die Mainframes von IBM erbringen. Jedermann, so wird gesagt, könne das heute genauso machen und spare dabei enorme Beträge, besonders wenn man außerdem günstige Linux-Betriebssysteme und jede Menge Open Source einsetzen würde.
Doch bei dieser populären Einschätzung wird übersehen, dass Unternehmen wie Google ihre „Standard“-Server nach eigenen Vorgaben in großen Stückzahlen assemblieren lassen. Zudem setzen sie neben günstigen, individuell angepassten Linux-Betriebssystemen selbst entwickelte Anwendungen und Tools ein und verfügen überdies über ein sehr gut ausgebildetes IT-Fachpersonal. Ihre unter Webbedingungen laufenden Anwendungen müssen überall ständig erreichbar sein und plötzlich auftretende massenhafte Zugriffe aushalten. Dieses Modell eignet sich nur sehr bedingt als Vorbild für andere Unternehmen.
5. Teil: „Support der Server-Hersteller und Systemhäuser“

Support der Server-Hersteller und Systemhäuser

Man kann daraus aber durchaus Strategien für den eigenen Server-Kauf ableiten. Zum Beispiel, dass man nach einem Gesamtkonzept vorgehen sollte und neben der Ausstattung des Rechenzentrums bei Storage, Netzwerk und so weiter Faktoren wie Ankoppelung an die bestehende Infrastruktur, geplante Einführung neuer Applikationen, Wartung, Support und den Ausbildungsstand der eigenen IT-Abteilung bedenken sollte.
  • Server-Ausfallzeiten: Laut ITC haben Server der Serie Dell PowerEdge x86 am häufigsten mit Ausfällen zu kämpfen. Am zuverlässigsten laufen IBM-System-x-Server.
Ein Einkauf bei den großen Herstellern oder bei einem gut in der Branche vernetzten Systemhaus bietet die Gelegenheit, viele parallel gebrauchte Technologien zusammen einkaufen zu können – der Service kommt dann aus einer Hand. Unschätzbarer Vorteil: Bei kleineren und größeren technischen Pro­blemen reichen eine Telefonnummer und ein Ansprechpartner – die Schuldzuweisung bei einem Fehler kann entfallen.
Ein weiterer Gesichtspunkt in diesem Umfeld: Größere Hersteller, die vielleicht etwas teurer sind als andere, sind aller Wahrscheinlichkeit nach noch länger am Markt. Allerdings befindet sich die IT-Industrie gerade in einer Umbruchsphase, in der sehr viele neue Start­ups auftreten und eine Reihe großer Hersteller zunehmend mit sich selber beschäftigt sind, um wieder in die gewohnten Gewinnzonen vorzustoßen. Dies kommt nicht immer ihrem Ansehen bei alten und potenziellen neuen Kunden zugute, die womöglich mit neuen Aufträgen zögern oder sich an einen Konkurrenten wenden, der für stabiler gehalten wird.

Austausch-Service ist bares Geld wert

Bei Computacenter weist man in diesem Zusammenhang auf Folgendes hin: „Generell ist der x86-Server-Markt sehr umkämpft. Hersteller wie beispielsweise SuperMicro oder Huawai, die noch nicht so etabliert sind, tun sich schwer, signifikante Projektgrößen in Deutschland zu realisieren.“ Meist schafften sie dies nur über einen aggressiven Preiskampf. Kunden sollten die Supportmodelle und Wartungslevel deshalb kritisch hinterfragen: „Denn ein sehr gut funktionierender Support und Austausch-Service sind im Fall eines Fehlers bares Geld wert.“ Allerdings ist davon auszugehen, dass sich auch die neuen Server-Anbieter früher oder später an die gängigen Marktregeln halten werden, um auf Dauer konkurrenzfähig zu werden.
  • Server via Cloud: Die IT-Infrastruktur eines Unternehmens lässt sich als Infrastructure as a Service (IaaS) zu einem großen Teil auch über Cloud-Computing-Dienste bereitgestellen. Mehr dazu lesen Sie in unserem Beitrag „Server, Storage und Netzwerk via Cloud“.
    Quelle:
    Fotolia / Nmedia
Wer neue Server-Installationen plant, sollte auch berücksichtigen, dass es mit Hosting- und Cloud-Modellen neue Alternativen zur Inhouse-Architektur gibt, wobei sich vor allem hybride Cloud-Angebote durchzusetzen scheinen. Damit werden starre IT-Infrastrukturen – entweder intern oder extern – zunehmend überflüssig. Funktionen, Preise, Folgekosten, Support oder Zuverlässigkeit der Hersteller von Servern müssen sich messen lassen an den Alternativen der Cloud-Provider. Gerhard Schlabschi, Director Sales Enablement and Competitive Analysis bei Oracle EMEA, gibt den Rat: „Entscheidend ist die Ausgewogenheit des Systems. Für die meisten Anwendungen ist heute nicht mehr die CPU das limitierende Moment, sondern der Datenzugriff. Große Hauptspeicher und der Einsatz von Flash-Technologien sind die maßgeblichen Leistungserbringer.“ Converged und hyper-converged Racksysteme, die von vielen Herstellern angeboten werden und solche Funktionen erfüllen, muss man nicht unbedingt kaufen, sondern kann sie auch mieten.
Die Qual der Wahl wird in der hybriden, virtuellen Welt der Cloud-Systeme nicht leichter. Das kann  aber auch von Vorteil sein kann.

mehr zum Thema