G DATA / Cybersicherheit in Zahlen 2023

Server nachts herunterfahren, Grafikprozessoren einsetzen, Abwärme nutzen: Es gibt viele Möglichkeiten, dem wachsenden Ressourcenhunger von Rechenzentren etwas entgegenzuhalten. Der Wissenschaftler Ralph Hintemann weiß, welche schon funktionieren und wo Unternehmen mehr Druck auf die Anbieter ausüben könnten.





Ein ideales Paar? Die Abwärme von Rechenzentren könnte in Zukunft Gewächshäuser und Indoorfarmen heizen. Erste Versuche gibt es etwa in Frankreich und Kanada.

Gdata-2023-gruener-rechnen no headline topmarg
Foto: AdobeStock

Rechenzentren gehören in Deutschland zu den Großverbrauchern von Strom. Laut Berechnungen des Wirtschaftswissenschaftlers Ralph Hintemann und seinem Team am Berliner Borderstep Institut bezogen 2021 alle Zentren zusammen 17 Terawattstunden elektrische Energie. So viel verbrauchen in etwa rund zehn Millionen Einwohner pro Jahr. Und der Stromhunger der immer leistungsfähigeren Systeme wächst kontinuierlich. Bis 2030 erwartet Borderstep einen Anstieg auf 28 Terawattstunden – eine Menge, die heute den jährlichen Bedarf aller Privathaushalte Nordrhein-Westfalens mit insgesamt knapp 18 Millionen Einwohnern decken würde.

Derzeit schlucken den größten Teil der Energie, nämlich 42 Prozent, die Server; mit den dazugehörigen Speichern sind es sogar 60 Prozent. Zur Stromrechnung trägt aber auch die Kühlung der elektronischen Komponenten massiv bei: 22 Prozent gehen allein dafür drauf, dass die Prozessoren und Memorys nicht buchstäblich durchschmoren. 

Herr Hintemann, die Digitalisierung sorgt heute für viel Wertschöpfung, sie trägt aber zugleich dazu bei, was die Transformationsforscherin Maja Göpel „Schadschöpfung“ nennt. Der Stromverbrauch durch IT steigt stetig, so entstehen Kosten für Umwelt und Klima. Ist das den Verantwortlichen bewusst? 

Ralph Hintemann: Sie stehen vor einem Zielkonflikt. Dass es da ein Problem gibt, sickert mehr und mehr durch. Aber unser aktuelles Wirtschaftssystem ist auf Konsum ausgerichtet und setzt die falschen Anreize. Deshalb haben auch viele digitale Lösungen zum Ziel, den Konsum anzuregen. Wenn ich auf einer Online-Plattform einkaufe, sagen mir die Algorithmen: Kauf dir dies noch, kauf dir das noch! Auch Tiktok und Meta wollen natürlich ihre Nutzer möglichst lange auf ihren Seiten halten. Diese ganzen Systeme tragen nicht gerade zu mehr Nachhaltigkeit bei. Das kann man aber den Unternehmen nicht unbedingt zum Vorwurf machen – unter den aktuellen Rahmenbedingungen handeln sie einfach rational. 

Es gibt also ein strukturelles Nachhaltigkeitsproblem durch unsere Online-Nutzung? 

Ja, genau. Wir haben beispielsweise bei der Corona-Pandemie gesehen, dass es durchaus geht, weniger zu reisen. Wir haben durch Videokonferenzen die Dienstreisen und vor allem die Inlandsflüge deutlich reduziert – und das hält noch an. Allerdings machen wir heute in Summe viel mehr Konferenzen. 

Ihr Institut hat für den IT-Branchenverband Bitkom untersucht, wie es in Deutschlands Rechenzentren um die Nachhaltigkeit bestellt ist. Sie wollten zum Beispiel wissen, wie wichtig es den Befragten ist, die Abwärme der Server zu nutzen. Insgesamt gab es eine breite Zustimmung, auch wenn nicht alle der Meinung waren.

Dass die Nachhaltigkeit der Rechenzentren weiter erhöht werden soll, ist fast Konsens in der Branche. Allerdings gibt es einen Unterschied zwischen der Absicht und dem tatsächlichen Handeln. Nachhaltigkeit kann schwierig werden, wenn es das eigene Geschäft betrifft und man höhere Kosten hat. Aber das ist überall so, wir sehen das gerade bei den Heizungen. Sobald Nachhaltigkeit wehtun könnte, ist auf einmal die Geschwindigkeit zu hoch.

Wenn die Kosten durch höhere gesetzliche Anforderungen an die Nachhaltigkeit steigen, drohen manche Manager, ins Ausland zu gehen. Ist das ökologische Verantwortungsbewusstsein unterentwickelt? 

Was wir brauchen, ist ein Zusammenspiel von unternehmerischem Verantwortungsbewusstsein und wirtschaftlichen Rahmenbedingungen, die Deutschland für Rechenzentren attraktiv machen. Wenn ich nur über die Grenze gehen muss, um meinen Dienst deutlich günstiger anbieten zu können, ist das sogar nachvollziehbar. Allerdings kann man auch erwarten, dass die Betreibenden von Rechenzentren begreifen, dass sie ihren Teil dazu beitragen müssen, eine nachhaltige Wirtschaft zu schaffen. Mit der Devise „Ich brauche nur Grünstrom, dann bin ich nachhaltig“ kommen wir nicht weiter. 

Gdata-2023-ralph-hintemann
Foto: Christian Jungeblodt

Nachhaltiger Innovator
Der Maschinenbauer und promovierte Wirtschaftswissenschaftler Ralph Hintemann ist Gesellschafter und Senior Researcher am gemeinnützigen Borderstep Institut für Innovation und Nachhaltigkeit. Sein besonderes Interesse gilt den Nachhaltigkeitspotenzialen der Digitalisierung. Im Mittelpunkt seiner Forschung stehen Innovationsstrategien, neue Geschäftsmodelle für Nachhaltigkeitsinnovationen und ihre Erfolgsfaktoren. Zuvor arbeitete er viele Jahre für den Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V., kurz: BITKOM. Er lebt in Berlin und lehrt unter anderem an der Carl von Ossietzky Universität Oldenburg.

Das kennt man auch aus anderen Zusammenhängen: Wasch mir den Pelz, aber mach mich nicht nass!

Pauschal kann man das nicht sagen. Der Entwurf des Energie-Effizienzgesetzes (EnEfG) sieht die Pflicht vor, die Abwärme anzubieten. Das soll auch bei der Standortentscheidung eine Rolle spielen. Aus meiner Sicht ist das zwingend notwendig, wenn Rechenzentren zur Wärmewende beitragen sollen. In der Branche gehen die Meinungen noch auseinander. Einige sagen: „Wo es wirtschaftlich ist, gern, unsere Standorte möchten wir aber nicht danach auswählen.“ Andere wollen genau dahin gehen, wo sie Abnehmer für die Abwärme finden.

Was können denn IT-Anwender aus Industrie, in Banken oder bei Versicherungen zur Nachhaltigkeit beitragen, ohne ihr Geschäftsmodell zu beschädigen? Wie werden sie ihrer Verantwortung im Rahmen des Möglichen gerecht?

Für IT-Verantwortliche mittelständischer oder größerer Unternehmen sind zwei Nachhaltigkeitsthemen wesentlich: die Herstellung und Entsorgung der Geräte und ihr Stromverbrauch. Bei Rechenzentren ist der Verbrauch besonders relevant, schließlich laufen sie 365 Tage 24 Stunden durch.

Aber doch nicht die ganze Zeit auf dem gleichen Niveau, oder? Können sie nicht nach Bedarf heruntergeregelt werden?

Das geht. Bei einem typischen Mittelständler sind die Server nachts und am Wochenende oft nicht ausgelastet. Es wäre technisch möglich, viele dann auszuschalten, aber das wird noch nicht gern gemacht. Da könnte man eine Menge tun. Forschungsrechenzentren und IT-Dienstleister haben natürlich andere Lastkurven. Und Streamingdienste laufen gerade abends und am Wochenende. 

Nicht benötigte Systeme außerhalb der Bürozeiten abzuschalten könnte zwei Fliegen mit einer Klappe schlagen: Kriminelle Hacker greifen gezielt dann an, wenn wenig Personal im Dienst ist. Sollte man nachts und am Wochenende vielleicht die eigene IT herunterfahren und nur die Website bei einem Hoster laufen lassen?

Ich bin kein Sicherheitsexperte, aber darüber nachdenken kann man bestimmt. Sicherheit und Nachhaltigkeit – das ist ein sehr ambivalentes Thema. Wenn ich alles verschlüssele und redundant mache, steigt mein Ressourcenbedarf. Andererseits kann ich Ressourcen sparen, wenn mein System so sicher ist, dass ich nicht allzu viele Kopien überall hinlegen muss. 

Füreinander geschaffen? In Norwegen will eine Hummer-Zuchtstätte das auf 20 Grad erwärmte Meerwasser nutzen, mit dem ein benachbartes Rechenzentrum seine Server gekühlt hat.

Gdata-2023-fuereinander-geschaffen
Foto: AdobeStock

An welchen Stellschrauben kann man am leichtesten drehen, um energieeffizienter zu werden?

Im Rechenzentrum fängt das bei der Software an und geht weiter mit der Hardware, die dazu passen muss. Manche Anwendungen brauchen auf klassischen Prozessoren sehr viel Strom, arbeiten aber mit Unterstützung von Grafikprozessoren sehr effizient. Gerade auch im KI-Bereich ist spezifische Hardware ein ganz relevantes Thema.

Sie meinen Spezialchips für das Machine Learning. Als verbrauchsintensiv gelten auch Blockchains. Diese dezentralen, fälschungssicheren Datenbanken sollen unter anderem Nachweise von Lieferketten erleichtern. Sind herkömmliche Datenbanken nicht viel effizienter?

Das Problem ist das Prinzip „Proof of Work“ … 

... also dass die Beteiligten auf ihren Geräten extrem komplexe Rechenaufgaben lösen müssen, um Manipulationen zu verhindern. Das hat dazu geführt, dass Bitcoin und ähnliche Fantasiewährungen praktisch nur noch von großen Playern in hoch spezialisierten Serverfarmen erzeugt werden, die in Billigstromländern stehen.

Da ist eine ganze Industrie entstanden, die nur davon lebt, unsinnig Energie zu verbrauchen. Das Blockchain-Projekt Ethereum hat immerhin gezeigt, dass man es anders machen kann. (Anmerkung der Redaktion: Die Entwickler-Community ist auf das sogenannte Proof-of-stake-Verfahren umgestiegen, bei dem nicht mehr alle Teilnehmer ständig hohe Rechenleistung bereitstellen müssen, sondern nur noch ausgewählte Teilnehmer sporadisch.) Ohne Proof of Work ist der Ressourcenverbrauch von Blockchain-Lösungen deutlich geringer. Trotzdem sollte man immer prüfen, ob sich der Einsatz überhaupt lohnt und  ob es nicht eine ressourcensparende Alternative gibt.

Die Zeit der Universalrechner ist jedenfalls vorbei. Gilt das auch für Cloud-Anbieter, die Rechenleistung „as a service“ vermarkten? Kann man da schon die jeweils effizienteste Hardware buchen?

Beim Cloud-Anbieter bekomme ich typischerweise eher Standardprodukte. Aber es gibt immer mehr Möglichkeiten, Ressourcen innerhalb des Systems flexibel zuzuteilen. 

Zum Beispiel auch Grafikprozessoren dazuschalten?

Ja. Wie man die Systeme künftig noch flexibler machen kann, ist bislang vor allem ein Forschungsthema. Im breiten Markt sind wir noch nicht so weit, dass man ganz nach Bedarf spezifische Hardware-Leistung für spezifische Anwendungen zubuchen könnte.

Brauchen wir also künftig deutlich effizientere IT-Systeme? 

Ja, die brauchen wir. Das sieht man gerade bei künstlicher Intelligenz. Bei einem System wie Chat GPT kann der Trainingsprozess enorm aufwendig sein. 

Verschlingen solche Anwendungen auch dann noch viel Energie, wenn sie bereits trainiert sind?

Ja. Zum einen werden die Systeme ja laufend neu trainiert. So braucht auch jede Nutzung Energie. Die einzelne Anfrage mag nur wenig Energie benötigen. Wenn es aber eine Milliarde Menschen nutzen, kommt einiges zusammen. Bei diesen großen Sprachmodellen könnte die Nutzung mittlerweile schon der größere Ressourcenfresser sein. Zum Vergleich: Eine E-Mail verursacht nur etwa ein Gramm CO2, aber wir schreiben in Deutschland am Tag mehr als zwei Milliarden E-Mails. Das sind täglich mehr als 2000 Tonnen CO2.

Auch Kleinvieh macht Mist. Aber es ist doch ein großer Unterschied, ob ich eine kurze Textnachricht verschicke oder ein zig Megabyte großes PDF. Über Schulungen, wie man ressourceneffizient kommuniziert, könnten große Arbeitgeber ihre Ökobilanz verbessern, oder?

Einige Unternehmen machen das. Aber wenn der Mitarbeiter abends Videos streamt, gehen in einer Stunde drei Gigabyte übers Internet. Bis er bei der Arbeit auf dieses Volumen kommt, kann er viele E-Mails mit derart großen Anhängen schreiben. Dennoch sollte man darauf achten. Am besten wäre es, wenn das automatisch geschieht und er selbst gar nichts tun muss. Beim PDF-Export sollte man in den Standardeinstellungen eine mittlere Auflösung vorgeben. Das E-Mail-Programm könnte Nachrichten auf übergroße Attachments checken, bevor sie rausgehen. Oder die Videostream-Software passt die Auflösung automatisch an die Größe des Displays an. 

Viele Menschen wissen nicht viel darüber, was ihre Technik kann und wie man damit umgeht.

Wir haben viel zu wenig Transparenz im Markt. Wo soll ich denn die Information bekommen, welcher Server oder PC wie nachhaltig ist, wie hoch der Ressourcenverbrauch bei seiner Herstellung war? Wo sind die Labels, die einem da helfen? Den Energy Star gibt es in Europa praktisch nicht mehr. Der Blaue Engel ist von der Hardware-Branche nie akzeptiert worden. 

Neues Bündnis: Im Südwesten Englands heizt Server-Abwärme ein kommunales Schwimmbad. Die Stadt spart mehrere Tausend Pfund Heizkosten.

Gdata-2023-neues-buendnis margin
Foto: AdobeStock

Helfen Neuerungen wie die ESG-Compliance (Environmental, Social, Governance) und das Lieferkettengesetz, eine Art Effizienzkultur zu schaffen?

Das Gesetz hat genau den Zweck, da Transparenz hineinzubekommen. Und Unternehmen können durchaus Marktdruck ausüben. Wenn ich als Unternehmen von meinem Cloud-Anbieter wissen möchte, wie viel Energie es verbraucht, was ich bei ihm mache, oder wie viel CO2 es verursacht, ist die Chance groß, dass er mir das mitteilt. Bei IT-Hardware wissen aber nicht einmal die Hersteller, was in ihren Systemen alles drin ist. 

Aus welchen Quellen erfahre ich als Unternehmer denn überhaupt etwas über die Ökobilanz meiner IT-Systeme?

Als Wissenschaftler kennen wir natürlich Studien, die sich damit beschäftigen. Für andere Nutzer ist es nicht einfach, an konkrete Informationen zu kommen. Generell verbrauchen Laptops und Smartphones sehr viel mehr Ressourcen in der Herstellung als im Betrieb. Deshalb ist es sinnvoll, sie lange zu nutzen. Ein Smartphone nach zwei Jahren auszutauschen ist ökologisch einfach nicht vertretbar – es sei denn, die alten Geräte werden weiterverkauft und genutzt. Bei Rechenzentren sieht es anders aus als bei Mobilgeräten, die wegen der Akkulaufzeit darauf getrimmt sind, möglichst wenig Strom zu verbrauchen.

Motto: Ist doch egal, bei uns kommt der Strom aus der Steckdose.

Bei Servern ist das Ziel hohe Leistung. Die Anwendungen erfordern immer mehr Leistung. Durch künstliche Intelligenz kriegen wir wahrscheinlich noch mal einen richtigen Boost bei den Hardware-Anforderungen. Die nächste Chip-Generation für KI-Systeme leistet über 600 Watt. Für einen einzelnen Chip! In einem Server stecken oft mehrere dieser Chips drin und in einem Rack mehrere Server. 

Das heißt, da entsteht wiederum viel Abwärme …

… die aber bislang kaum genutzt wird.

Da könnte bald das EnEfG Wirkung zeigen. Was bedeutet das für „On-Premise“, also hauseigene IT, und für externe wie Cloud oder Co-Location, bei der Dienstleister unter einem Dach mehrere kundeneigene Server betreiben?

Bei On-Premise gibt es meist genug Produktionsanlagen oder Büroräume als Abnehmer für die Wärme. Es gibt bereits jetzt einzelne Firmenstandorte, die gar keine zusätzliche Heizung mehr brauchen. Technisch ist das nicht sehr schwierig, man muss auch keine Fernwärmeleitung bauen. Die großen Cloud- und Co-Location-Anbieter haben typischerweise viel größere Wärmemengen. Sie brauchen einen sehr großen Abnehmer oder ein Fernwärmenetz in der Nähe. 

Oder ein Gewächshaus.

Ja, daran wird zum Beispiel in Kanada gearbeitet. In Norddeutschland gibt es ein Rechenzentrum mit einer Algenfarm auf dem Dach. So etwas ist eine Alternative, wenn ich mein Rechenzentrum nicht in der Nähe einer Stadt bauen kann oder es wegen der Grundstückskosten nicht will.

Die IT ist nur Dienstleister, nach dem Verursacherprinzip tragen auch Fachabteilungen wie Forschung & Entwicklung oder Marketing zur Schadschöpfung bei. Was können sie tun, um diese zu minimieren?

Da sind wir wieder beim Thema Transparenz. Wir müssten es schaffen, endlich einen Footprint für IT-Dienste zu ermitteln. Keiner weiß genau, was er braucht für das, was er da macht. Erst wenn ich das weiß, kann ich handeln. Dann kann ich auch entscheiden, was umweltfreundlicher ist – der Betrieb in der Cloud oder die eigene Lösung. 

Sollte man nicht bei jedem IT-Projekt die Effizienz gleich mitdenken – also nicht nur dafür sorgen, dass eine bestimmte Funktionalität umgesetzt wird, sondern dass sie auch energieeffizient umgesetzt wird?

Ich würde sogar so weit gehen zu sagen: Ein Unternehmen sollte ein Digitalprojekt nur umsetzen, wenn es damit ganz klar seine Nachhaltigkeitsziele unterstützt. Und dabei sollten auch alle möglichen negativen Wirkungen beachtet werden. Das ist sicher nicht einfach – wie der Hype um die Sharing Economy gezeigt hat. Die Online-Plattform Airbnb galt mal als Nachhaltigkeitsprojekt. Oder Free Floating Carsharing: Bisher hat es nicht dazu geführt, dass weniger Autos auf den Straßen sind. 

Unser System setzt einfach die falschen Anreize. Womit wir wieder am Anfang wären. Die Digitalisierung kann uns helfen, nachhaltiger zu werden – wir brauchen aber andere Anreize, damit das tatsächlich auch geschieht. --

Das Potenzial von Abwärme
Erhitzen sich Server und andere Rechner auf mehr als 100 Grad, arbeiten sie nicht mehr zuverlässig. Frühere Großrechner wurden mit Leitungswasser gekühlt, das anschließend in die Kanalisation floss; die Abwärme blieb ungenutzt. Als sich Server auf Basis von PC-Prozessoren breitmachten, hielt Luftkühlung Einzug in die Data Centers – aber auch die warme Abluft wurde meist per Klimaanlage achtlos ins Freie entsorgt. 

Seit einigen Jahren ist Wärmerückgewinnung im Kommen, begünstigt durch neue technische Entwicklungen. So hat eine Renaissance der Wasserkühlung begonnen: Die Prozessoren werden nun in geschlossenen Kreisläufen mit warmem Wasser von etwa 40 Grad gekühlt. Dadurch erreicht das Kühlwasser so hohe Temperaturen, dass sich die Abhitze sehr effizient per Wärmetauscher nutzen lässt. Das Energieeffizienzgesetz (EnEfG), über das der Bundestag berät, hat das Ziel, diese Wärmequelle systematisch anzuzapfen. Die geplanten Vorschriften betreffen insbesondere neue (Cloud-) Rechenzentren, wie sie im Rhein-Main-Gebiet sowie in und um Berlin entstehen. Der Jahresstromverbrauch eines solchen Standortes kann mehr als 100 000 Kilowattstunden beziehungsweise 100 Megawattstunden betragen.


Dieser Text stammt aus unserer Redaktion Corporate Publishing.