Kostenexplosion und Lieferkettenrisiken auf der einen Seite – neue Workloads wie KI, die klassische Architekturen überlasten, auf der anderen: Angesichts des Drucks, der auf Infrastrukturumgebungen lastet, ist es nicht verwunderlich, dass Unternehmen nach neuen Wegen suchen, um einen reibungslosen Betrieb sicherzustellen. Disaggregierte IT kann eine Lösung sein. 

IT-Entscheider sehen sich dabei mit zahlreichen Fragen konfrontiert:

  • Was bedeutet disaggregierte IT eigentlich?
    Eine hyperkonvergente Infrastruktur (HCI) bündelt Rechenleistung, Speicher und Netzwerkfunktionen in einer einzigen, meist vorkonfigurierten Einheit oder in einem eng verzahnten Cluster. Typischerweise befinden sich Rechen- und Speichermodule auf derselben physischen Hardware, was den Betrieb und die Verwaltung vereinfacht.

    Das Konzept der disaggregierten IT geht einen anderen Weg: Hier sind Server, Storage und Netzwerkkomponenten klar voneinander getrennt und werden über eine leistungsfähige, latenzarme Netzwerk-Fabric miteinander verbunden. Trotz dieser physischen Trennung werden alle Ressourcen durch eine zentrale Managementebene wie ein gemeinsames System orchestriert.

  • Warum lohnt sich dieser Ansatz?
    Der entscheidende Vorteil dieses Ansatzes liegt in der flexiblen Skalierung. Während klassische HCI-Architekturen in der Regel als vollständige Appliances erweitert werden müssen, erlaubt eine disaggregierte IT eine unabhängige Anpassung von Rechen- und Speicherkapazitäten. Unternehmen können also gezielt zusätzliche Storage-Knoten hinzufügen, ohne zugleich neue Compute-Ressourcen zu beschaffen.

    Diese Entkopplung erleichtert es ihnen, auf wechselnde Workload-Anforderungen zu reagieren, etwa wenn datenintensive Anwendungen einen stark wachsenden Speicherbedarf verursachen, während die vorhandene Rechenleistung ausreicht. Darüber hinaus lässt sich eine disaggregierte IT leichter in bestehende Rechenzentrumsstrukturen einbinden.

    Ein weiterer Pluspunkt zeigt sich beim Lifecycle Management. Während in HCI-Umgebungen Updates oft en bloc erfolgen müssen und damit ganze Wartungsfenster blockieren, erlaubt die Disaggregation einzelne Schritte. Unternehmen können Storage, Compute oder Netzwerk separat aktualisieren und dennoch eine geprüfte Release Certification Matrix nutzen.

  • Welche Szenarien profitieren am meisten?
    Eine pauschale Antwort gibt es nicht. Eine disaggregate IT ist auch nicht automatisch die bessere Strategie. Vor einer Entscheidung sollten Unternehmen für jede Ebene ihres Technologie-Stacks sorgfältig prüfen, ob eine Eigenentwicklung oder der Einsatz vorgefertigter Lösungen wirtschaftlich und strategisch sinnvoller ist.

    Insbesondere dort, wo zentrale Geschäftsprozesse laufen – etwa in einem stark frequentierten Online-Shop oder in der Produktionssteuerung – kann eine entkoppelte Architektur handfeste Vorteile bringen. Wer sein Kerngeschäft über proprietäre Komplettlösungen abbildet, riskiert im Falle von Lieferengpässen, abrupten Preisanstiegen oder gar dem Ausfall eines Herstellers empfindliche Zusatzkosten und Betriebsrisiken.

    Für geschäftskritische Anwendungen sind zudem eine flexible Skalierung und die Fähigkeit, schnell auf neue Anforderungen zu reagieren, entscheidend. Bei weniger strategischen Services, etwa einem einfachen E-Mail-System, einer internen Datenbank oder einer Lagerverwaltung ohne direkten Einfluss auf den Markterfolg, kann dagegen eine vorintegrierte Plattform die pragmatischere Wahl sein. 

  • Warum steigen immer mehr Unternehmen auf eine disaggregierte IT um?
    Ein zentraler Grund sind die Kosten. Die fortschreitende technische Entwicklung wirkt sich auf die Wirtschaftlichkeit hyperkonvergenter Infrastrukturen aus. Insbesondere die Speichertechnologien haben in den vergangenen Jahren deutlich schneller an Leistung gewonnen als Prozessoren. Viele Unternehmen setzen inzwischen auf All-Flash-Systeme, einige sogar auf All-NVMe-Lösungen.

    In HCI-Umgebungen bedeutet dies, dass immer mehr CPU-Ressourcen benötigt werden, um die hohe Storage-Performance zu verarbeiten. So verbrauchen HCI-Stacks bis zu 35 Prozent der Rechenleistung für diese Arbeitslast. Hinzu kommt, dass die auf hyperkonvergenten Systemen eingesetzte Software meist pro Sockel lizenziert wird.

    Das führt dazu, dass ein erheblicher Teil der Lizenzkosten nicht direkt dem eigentlichen Zweck der Anwendungen zugutekommt, sondern für die Bereitstellung von Speicherleistung über die Compute-Hosts aufgewendet wird. Mit anderen Worten: CPUs, die teuer lizenziert sind, werden in hohem Maße für Storage-Aufgaben beansprucht, was die Kosteneffizienz verringert.

  • Welche technischen Grundlagen sind erforderlich?
    Strenge Voraussetzungen gibt es kaum, wichtiger ist eine saubere Analyse des Status quo. Unternehmen sollten ihre bestehende Infrastruktur unter die Lupe nehmen und ein Zielbild entwickeln. Möglich ist zudem eine schrittweise Transformation. Das heißt, dass Unternehmen gezielt bei neuen Investitionen einzelne Schichten disaggregieren können.

    Grundsätzlich empfiehlt sich jedoch eine offene Architektur. Proprietäre Silos untergraben die Flexibilität – offene Schnittstellen und die Möglichkeit, unterschiedliche Software-Stacks zu betreiben, sind deshalb Pflicht. Dazu zählen etwa x86-Standardserver für Computing und Storage sowie Protokolle wie das Internet Protocol (IP).

    Mit dieser Kombination können Unternehmen beispielsweise beim Storage NVMe over TCP einsetzen und damit als Übergabemechanismus zwischen Hardware und Software den Industriestandard Block-Storage verwenden.

    Durch IP sind sie zudem beim Networking nicht auf proprietäre Fibre-Channel-Technologie angewiesen, für die es nur noch einige wenige Anbieter gibt, sondern können IP-Switches verwenden, für die ein breites Angebot existiert. Cyberresilienz ist ebenfalls ein zentrales Kriterium: Eine intrinsische Sicherheit muss auf jeder Ebene des Stacks integriert sein.

„Disaggregierte IT kann den Zielkonflikt zwischen Komplexität und Unabhängigkeit auflösen – wenn man sie als offenes, softwaredefiniertes Ökosystem versteht. Sie schafft zudem ein technologisches Fundament, mit dem Unternehmen flexibel auf jede Entwicklung reagieren können“, erklärt Marius Neidlinger, Business Development Manager bei Dell Technologies in Deutschland.

„Die Umstellung auf eine disaggregierte IT ergibt nicht für jedes Unternehmen Sinn. IT-Abteilungen bewegen sich aber weg von ITIL-getriebenen Ticketprozessen hin zu einem Plattformansatz. Ziel ist es, die Infrastruktur integriert, automatisiert und serviceorientiert zu betreiben.“

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.