Energie sparen
Sparzwang als Chance für mehr Effizienz – Container-Orchestrierung spart Energie
Einsparpotential durch Kubernetes im Rechenzentrum um 30%
Vor dem Hintergrund des Inkrafttretens der EU-Verordnung zum Energieverbrauch am 1. Dezember 2022: Kubermatic erläutert, wie moderne Container-Orchestrierung Unternehmen dabei helfen kann, den Energieverbrauch im Rechenzentrum zu senken
Die EU-Energieminister haben Ende September eine politische Einigung über den Vorschlag für eine Verordnung des Rates zur Bekämpfung der hohen Energiepreise erzielt. Mit der Verordnung werden gemeinsame Maßnahmen zur Senkung der Stromnachfrage und zur Erhebung und Umverteilung der Überschusseinnahmen des Energiesektors an die Endverbraucher eingeführt.
Für Unternehmen gilt es jetzt Möglichkeiten auszuloten, um den Energieverbrauch zu senken. Dabei rücken vor allem die Rechenzentren ins Visier. Immer häufiger kommt das Stichwort „Containerisierung“ ins Spiel, ein Trend, auf den viele Unternehmen ohnehin bereits setzen. Entscheidend ist aktuell aber, durch intelligente und effiziente Orchestrierung von Containern den Stromverbrauch weiter zu senken. Der Einsatz moderner Container-Software kann hier einen wesentlichen Teil zur Energieeinsparung leisten.
Das deutsche Technologie-Unternehmen Kubermatic , Anbieter einer Open-Source-Kubernetes-Plattform, hat hierzu eine Untersuchung veröffentlicht.
Energieverbrauch im Fokus
Angesichts der jüngsten Entwicklungen auf den Weltmärkten ist der Energieverbrauch das aktuelle Thema in jeder Vorstandsetage. Einerseits verändern sich die Lieferketten. Die Suche nach Möglichkeiten zur Sicherung von Produktion und Dienstleistungen ist der Schlüssel, um den Betrieb aufrechtzuerhalten. Andererseits haben die steigenden Energiekosten aufgrund einer drohenden Energiekrise im kommenden Winter unsere Sichtweise erheblich verändert.1
Rechenzentren gehören zu den größten Energieverbrauchern der Welt. Mit der zunehmenden Digitalisierung steigt auch weltweit die Nachfrage nach Daten. Obwohl Energie einen großen Anteil an den Kosten eines Rechenzentrums hat, zögerte die IT-Branche bislang beim Energiemanagement, da die Gewinnspannen groß sind und jede Rechnung bezahlt werden konnte. Wie erklärt aber man der Öffentlichkeit, dass jedes Watt Energieverbrauch in einem Rechenzentrum auch ein Watt Kühlung erfordert, während Politiker die Menschen auffordern, Strom zu sparen, wo es nur geht?
Hier ist vielerorts Nachholbedarf nötig, denn es kommt auf die Effizienz einer IT-Plattform an. Die Verwaltung der Rechenressourcen muss so wenig Energie wie möglich verbrauchen, während die Arbeitslasten durch Abgleich, automatische Skalierung und Optimierung der Arbeitslastplatzierung ständig optimiert werden müssen. Die Bewältigung dieser Komplexität ist die größte Herausforderung bei diesen Bemühungen.
Intelligente Container-Orchestrierung optimiert alle oben genannten Ebenen und bietet eine zukunftssichere Automatisierungsplattform, die Energie, Geld und Ressourcen spart. An der Spitze dieses Ansatzes steht die Fähigkeit, den Energieverbrauch eines Rechenzentrums zu senken und damit den Wandel zur Nachhaltigkeit voranzutreiben. Dies ist nachgewiesenermaßen möglich – um bis zu 33 Prozent, wie Kubermatic bestätigt.
Energie für Rechenleistung, Speicherung und Netzwerk
Es gibt viele Komponenten in einem Rechenzentrum, die eine wichtige Rolle bei der Bereitstellung eines Dienstes spielen, aber nichts hat einen größeren Einfluss auf den Energieverbrauch als die Rechenleistung. Tatsächlich verbrauchen Rechenhardware und die dazugehörige Kühlung 86 Prozent der Energie eines Rechenzentrums, während 11 Prozent auf die Speicherung und 3 Prozent auf das Netzwerk entfallen.2 Daraus ergibt sich ein klares Optimierungsziel für die Nutzung der Rechenhardware.
Auch wenn die Chiphersteller viel für intelligente Energieeinsparungen tun, können sie nichts an der Tatsache ändern, dass etwa 50 Prozent der in einem Rechenzentrum verbrauchten Energie durch Rechenleistung im Leerlauf verschwendet wird.3 Selbst Hardware im Leerlauf benötigt immer noch Strom und Kühlung, was bedeutet, dass die im Leerlauf verbrauchte Energie 43 Prozent des Gesamtverbrauchs ausmacht. Es lässt sich jedoch eine große Menge an Energie einsparen, indem man die Auslastung der Rechenleistung erhöht.
Netzwerk, Housing und Speicher sind im Vergleich zu den Rechenanforderungen sekundär und machen einzeln betrachtet nur einen kleinen Teil des Energieverbrauchs aus. Bei der Speicherung wird beispielsweise der Bedarf für jedes gespeicherte Terabyte alle zwei bis drei Jahre um die Hälfte reduziert. In jüngster Zeit ist jedoch der Stromverbrauch der Rechenressourcen gestiegen. Um also Einsparungen zu erzielen, gilt es die bestehende Infrastruktur zu optimieren.
Vorteile einer Orchestrierungsplattform der nächsten Generation
Es gibt einige beeindruckende Forschungsarbeiten darüber, wie die Auslastung von Rechenzentren durch den Betrieb virtueller Maschinen mit speziell für diesen Fall geeigneten Algorithmen optimiert werden kann.5 Obwohl die Forscher Wege zur Optimierung und Vorhersage der Arbeitslast fanden, um gute Ergebnisse zu erzielen, arbeiteten sie mit einer Technologie aus dem Jahr 1998, der Virtualisierung.6
Im Jahr 2014 jedoch wurde Kubernetes – als ein Open-Source-System zur Automatisierung der Bereitstellung, Skalierung und Verwaltung von containerisierten Anwendungen – von Google an die Linux Foundation gestiftet. Google war und ist eines der führenden Unternehmen, wenn es um die Optimierung von Arbeitslasten im Rechenzentrum geht, da täglich 8,5 Milliarden Suchanfragen auf seine Server zugreifen.
Es gibt grundlegende Unterschiede zwischen Virtualisierung und Containerisierung, vor allem in der Art und Weise, wie man mit Arbeitslasten und der Bereitstellung einer Anwendung umgeht. Das Image einer virtuellen Maschine (VM) wird zum Beispiel in Gigabyte gemessen und bewegt sich in der Regel im ein- bis zweistelligen Bereich. Ein typischer Container hingegen wird in zwei- oder dreistelligen Megabyte-Größen gemessen, in seltenen Fällen auch in einstelligen Gigabyte-Größen. Das bedeutet, dass eine VM um einen Faktor zwischen fünf und 25 mehr Ressourcen benötigt als ein Container.
Außerdem kann ein Container in Kubernetes ein Limit für die Rechenleistung erhalten. Kubernetes ist in der Lage, eine CPU in 1.000 Teile aufzuteilen, und typische Grenzen liegen zwischen 150 und 1.000 Teilen für eine containerisierte Bereitstellung. Eine VM reserviert jedoch immer eine volle CPU, also 1.000 von 1.000 Teilen, auch wenn sie nicht immer die volle CPU benötigt. Container bieten daher viele Vorteile, was die Ressourcennutzung angeht:7
- Container erfordern weniger IT-Ressourcen für die Bereitstellung, den Betrieb und die Verwaltung.
- Container lassen sich in Millisekunden aufsetzen.
- Da ihre Größenordnung kleiner ist, kann ein einziges System im Vergleich zu VMs viel mehr Container hosten.
Damit sind Container ideal, um die Auslastung von Ressourcen zu erhöhen. Millionen von VMs verbrauchen Rechenleistung, obwohl sie nur einen Bruchteil davon für einen Bruchteil der Zeit benötigen. Multipliziert man die Anzahl dieser VMs mit 0,5, dem Faktor für den Energieverbrauch im Leerlauf, ergeben sich Billionen von Watt, die nicht verschwendet werden müssten.
Der wichtigste Vergleich zwischen diesen Technologien läuft unweigerlich auf Energie und Dichte hinaus, da diese Kennzahlen die Effizienz und damit die Kosten widerspiegeln. Ein häufig zitierter Vergleich8 kam zu dem direkten Ergebnis, dass „Docker (Container) die Ausführung von bis zu 21 Prozent mehr Diensten als KVM ermöglicht“. Diese Zahlen werden durch die Schlussfolgerung zur Gesamtenergieeffizienz noch getoppt, die lautet: „Auf der Ebene des Rechenzentrums könnten dieselben Rechenlasten mit weniger Servern und weniger Energie pro Server ausgeführt werden, was insgesamt eine Energieeinsparung von 28 Prozent im Rechenzentrum bedeutet.“
Insgesamt hängt der Vergleich in Bezug auf die Energieeffizienz von der individuellen Einrichtung ab. Im Allgemeinen lässt sich mit einer aktuellen Orchestrierungsplattform für Kubernetes eine besonders effiziente Architektur realisieren. Im Vergleich zu einem Standard-Open-Source-basierten Kubernetes-Cluster und den meisten kommerziellen Angeboten verbraucht das Management einer modernen Orchestrierungsplattform 20 Mal weniger Ressourcen.
Ein weiteres Thema ist die Benutzerfreundlichkeit bei Betrieb und Entwicklung. Kubernetes bietet zwar eine automatische Skalierung, aber der Rollout im großen Maßstab ist mühsam. Eine Orchestrierungsplattform der nächsten Generation, bei der dieses Problem durch eine zentrale Konfiguration gelöst wird, ist auch hier hilfreich. Dies gilt auch für die Einführung von Monitoring, Logging und Alerting (MLA). In einer dezentralisierten Umgebung bleiben einige Komponenten zentral, um Rechenleistung und Speicherplatz zu sparen, während andere mit einem minimalen Fußabdruck bereitgestellt werden müssen.
Optimierung der Ressourcennutzung als Teil aller digitalen Initiativen
Die Digitalisierung oder die Umstellung auf die Cloud sind an sich schon eine Herausforderung. Hinzu kommt nun die Forderung, auch die Nachhaltigkeit wesentlich stärker zu berücksichtigen. Da zudem der Fachkräftemangel immer noch ein limitierender Faktor ist, wird jedes Unternehmen versuchen, sich so gut wie möglich anzupassen. Im Rahmen dieses Anpassungsprozesses haben sich Betrieb und Entwicklung hin zu DevOps, GitOps, SecureOps und FinOps entwickelt.
Der nächste Schritt ist EnergyOps, denn die Optimierung der Ressourcennutzung sollte Teil aller digitalen Initiativen sein. Hierbei sind jedoch drei wichtige Fähigkeiten erforderlich. Erstens gilt es, bestehende Ressourcen zu nutzen und sie für moderne Implementierungen einzusetzen, um die reibungslose Einführung neuer Technologien neben bestehenden und bewährten Tech-Stacks zu ermöglichen. Zweitens müssen diese Technologien den ständigen Austausch wichtiger Komponenten unterstützen, um für die nächste und jede weitere Änderung anpassungsfähig zu bleiben. Und schließlich muss die Nutzung zusätzlicher Dienste und Technologien von Drittanbietern – ob Open Source oder proprietär – durch Standardmuster unterstützt werden, früher bekannt als APIs, heute als „komponierbare“ Architektur.
Die Vorteile der Verwendung dieser Muster und der Einführung einer Orchestrierungsplattform der nächsten Generation führen zu einer schnelleren Einführung und erheblich verbesserten Effizienz der Technologie. All dies wird letztlich dazu beitragen, das übergeordnete Ziel zu erreichen, im Rechenzentrum nachhaltiger zu werden.