Wie man Rechenzentren davon abhält, den Strom der Welt zu verschlingen


nature von Nicola Jones| Laden Sie Ihre letzten Urlaubsfotos auf Facebook hoch, und es besteht die Möglichkeit, dass sie in Prineville, Oregon, einer kleinen Stadt, in der das Unternehmen drei riesige Rechenzentren aufgebaut hat und zwei weitere plant, gespeichert werden. In diesen riesigen Fabriken, die größer als Flugzeugträger sind, werden Zehntausende von Leiterplatten Reihe um Reihe aufgereiht, die sich durch fensterlose Hallen erstrecken, so lange, dass die Mitarbeiter mit Rollern durch die Korridore fahren.

Diese riesigen Gebäude sind die Schätze der neuen Industriekönige: die Informationshändler. Die fünf größten globalen Unternehmen nach Marktkapitalisierung in diesem Jahr sind derzeit Apple, Amazon, Alphabet, Microsoft und Facebook und ersetzen Titanen wie Shell und ExxonMobil. Obwohl Informationsfabriken vielleicht keinen schwarzen Rauch ausspeien oder fettige Zähne schleifen, sind sie doch nicht umweltfreundlich. Da die Nachfrage nach Internet- und Mobiltelefonverkehr sprunghaft ansteigt, könnte die Informationsindustrie zu einer Explosion des Energieverbrauchs führen (siehe „Energieprognose“).

Quelle: Ref. 1

Rechenzentren verwenden bereits geschätzte 200 Terawattstunden (TWh) pro Jahr. Das ist mehr als der nationale Energieverbrauch einiger Länder, einschließlich des Iran, aber die Hälfte des weltweit für den Transport verwendeten Stroms und nur 1% des weltweiten Strombedarfs (siehe „Energieskala“). Rechenzentren tragen rund 0,3% zu den gesamten CO2-Emissionen bei, während das Ökosystem der Informations- und Kommunikationstechnologie (IKT) insgesamt – unter einer umfassenden Definition, die persönliche digitale Geräte, Mobilfunknetze und Fernsehgeräte umfasst – mehr als 2% der globalen CO2-Emissionen ausmacht Emissionen. Damit liegt der CO2-Fußabdruck von ICT auf Augenhöhe mit den Emissionen der Luftfahrtindustrie. Was in Zukunft passieren könnte, ist schwer zu prognostizieren.1 . Wenn die rechenintensive Kryptowährung Bitcoin weiter wächst, könnte ein starker Anstieg des Energiebedarfs eher früher als später eintreten (siehe „Der Bitcoin-Biss“).

Trotz steigender Datennachfrage bleibt der Stromverbrauch von ICT nahezu unverändert, da erhöhter Internetverkehr und höhere Datenaufkommen durch höhere Effizienz kompensiert werden – einschließlich der Abschaltung älterer Einrichtungen zugunsten hocheffizienter Zentren wie Prineville. Aber diese leichten Gewinne könnten innerhalb eines Jahrzehnts enden. „Der Trend ist derzeit gut, aber es ist fraglich, wie er in 5-10 Jahren aussehen wird“, sagt Dale Sartor, der das Centre of Expertise für Energieeffizienz in Rechenzentren des Lawrence Berkeley National Laboratory des US-Energieministeriums leitet in Berkeley, Kalifornien.

Mit dem Gespenst einer energiehungrigen Zukunft suchen Wissenschaftler in akademischen Labors und Ingenieure bei einigen der reichsten Unternehmen der Welt nach Wegen, um die Auswirkungen der Industrie auf die Umwelt in Schach zu halten. Sie rationalisieren Rechenprozesse, wechseln zu erneuerbaren Energien und untersuchen bessere Möglichkeiten, Rechenzentren zu kühlen und ihre Abwärme zu recyceln. Der Energieverbrauch von ICT muss „wachsam gemanagt“ werden, sagt Eric Masanet, ein Ingenieur an der Northwestern University in Evanston, Illinois, der letztes Jahr den Bericht 2 derInternationalen Energieagentur (IEA) über Digitalisierung und Energie verfasst hat – aber wenn wir an der Spitze bleiben von ihm, sagt er, sollten wir den zukünftigen Energiebedarf in Schach halten.

Schalten Sie auf hohen Gang

Die vielleicht erstaunlichste Vorhersage des zukünftigen Energiebedarfs von ICT kommt von Anders Andrae, der bei Huawei Technologies Sweden in Kista für nachhaltige IKT arbeitet; er sagt voraus, dass der Stromverbrauch von Rechenzentren bis 2030 um das 15-fache auf 8% der prognostizierten globalen Nachfrage steigen wird 1 . Solche düsteren Zahlen sind umstritten. „Es gab viele alarmistische Vorhersagen über den wachsenden IKT-Energieverbrauch im Laufe der Jahre, und alle haben sich als Koje erwiesen“, sagt Masanet. Der IEA-Bericht aus dem letzten Jahr schätzte, dass die Arbeitsbelastung der Rechenzentren zwar hochschnellen wird und sich das Niveau von 2014 bis 2020 verdreifachen wird, doch aufgrund von Effizienzsteigerungen könnte sich ihre Stromnachfrage nur um 3% erhöhen2 . Der CO2-Fußabdruck von IKT könnte sogar bis 2020 nach unten tendieren, da Smartphones die Nutzung von größeren Geräten übernehmen, haben Forscher vorgeschlagen3 .

DER BITCOIN BISS

Seit der Geburt der Kryptowährung Bitcoin im Jahr 2008 sind die Sorgen gewachsen, dass der Energiebedarf seiner Produktion schnell eskalieren wird. Virtuelle Münzen werden von Minenarbeitern geprägt, die spezialisierte Server kaufen, um zeitintensive Berechnungen in einer wachsenden Blockchain durchzuführen, die die Gültigkeit der neuen Kryptocoins belegt. Laut Alex de Vries, einem Datenberater des internationalen PwC-Dienstleisters in Amsterdam, nutzten Bitcoin-Bergleute Mitte 2018 schätzungsweise weltweit etwa 20 Terawattstunden Strom – weniger als 10% der Datenzentren und weniger als 0,1% des gesamten Stromverbrauchs 6 . Aber Schätzungen, wie schnell ihre Verwendung steigt, sind umstritten.

De Vries schätzt, dass Bitcoin mittlerweile mindestens 0,33% des weltweiten Stroms verschlingt. Einschließlich anderer Kryptowährungen wie Ethereum Bumps, die bis zu 0,5% betragen. „Ich denke, es ist schockierend“, sagt er. Aber andere, einschließlich Marc Bevand, ein Kryptowährungsforscher in San Diego, Kalifornien, sagen, dass diese Zahlen aufgebläht sind und auf groben Annahmen beruhen. Bevand schätzt, dass der Energieverbrauch bis Januar 2019 nur noch halb so hoch sein wird wie de Vries. „Es gibt Wachstum, aber die Leute übertreiben das“, sagt Jonathan Koomey, ein in Kalifornien ansässiger IT-Berater, der Daten über Kryptowährung sammelt Stromverbrauch.

Im Moment ist Bitcoin-Mining nur dort profitabel, wo Strom billig ist (etwa die Hälfte des weltweiten Durchschnitts, sagt Bevand). Dazu gehören China, Island und Gebiete entlang des Columbia River in Nordamerika, wo Wasserkraft reichlich vorhanden ist. Während Bitcoin-Minenarbeiter sich in einem Gebiet eingraben und das Netz stressen, reagieren Energieunternehmen darauf, indem sie ihre Gebühren erhöhen. Dies könnte dazu führen, dass die Minenarbeiter entweder herunterfahren oder Maßnahmen ergreifen, um die Energieeffizienz ihrer Hardware- oder Systemkühlung drastisch zu verbessern.

Bitcoin könnte möglicherweise in ein weniger energieintensives Blockchain-System migriert werden, sagt Bevand (wie Ethereum plant). Oder, bemerkt Koomey, „Wenn Bitcoin kollabiert aus irgendeinem Grund; werden all diese Einrichtungen einfach verschwinden. „

Nicola Jones

Der Strombedarf von Rechenzentren ist in den letzten 50 Jahren in etwa gleich geblieben, was zum Teil auf die „Hyperskala-Verschiebung“ zurückzuführen ist – den Aufstieg von super-effizienten Informationsfabriken, die eine organisierte, einheitliche Computerarchitektur verwenden, die leicht auf Hunderttausende skaliert von Servern. Hyperscale-Rechenzentren entstanden vor etwa einem Jahrzehnt, als Unternehmen wie Amazon und Google anfingen, Flotten von einer Viertelmillion Servern oder mehr zu benötigen, sagt Bill Carter, technischer Leiter des Open Compute Project . Es wurde 2011 von Facebook ins Leben gerufen, um Hardware- und Softwarelösungen zu teilen, um Computing energieeffizienter zu machen. An diesem Punkt machte es keinen Sinn, Standard-Hardware von einer Computerfirma zu verwenden, wie es die Unternehmen typischerweise getan hatten.

„Sie hatten die Möglichkeit, die Dinge genau auf Ihre Bedürfnisse abzustimmen und sie für Ihre Anwendung spezifisch zu machen“, sagt Carter. Die neuen Hyperskalierer machten Barebone-Server für den Einsatzzweck. „Wir haben Videoanschlüsse entfernt, weil es keinen Videomonitor gibt. Es gibt keine blinkenden Lichter, weil niemand die Gestelle läuft. Es gibt keine Schrauben „, sagt Carter. Im Durchschnitt soll ein Server in einem Hyperscale-Center 3,75 Server in einem konventionellen Zentrum ersetzen können.

Informations- und Kommunikationstechnologie macht mehr als 2% der weltweiten CO2-Emissionen aus. Kredit: SVTeam / Getty

Die von Hyperscale-Zentren erzielten Einsparungen können in ihrer Effizienz der Energienutzung (PUE) gesehen werden, definiert als Gesamtenergiebedarf für alles, einschließlich Licht und Kühlung, dividiert durch die für die Berechnung verwendete Energie (ein PUE von 1,0 wäre eine perfekte Punktzahl). . Herkömmliche Rechenzentren haben typischerweise einen PUE von etwa 2,0; für Hyperscale-Einrichtungen wurde das auf etwa 1,2 reduziert. Google hat zum Beispiel im Durchschnitt einen PUE von 1,12 für alle seine Zentren.

Ältere oder weniger technologisch versierte Rechenzentren können eine Mischung aus Geräten enthalten, die schwer zu optimieren sind – und einige, die sogar nutzlos sind. Im Jahr 2017 befragte Jonathan Koomey, ein in Kalifornien ansässiger Berater und führender internationaler IT-Experte, mit einem Kollegen mehr als 16.000 Server in Firmenschränken und Kellern und stellte fest, dass etwa ein Viertel von ihnen „Zombies“ waren , die ohne Strom ausgingen irgendeine nützliche Arbeit zu tun – vielleicht weil jemand einfach vergessen hat, sie auszuschalten. „Das sind Server, die herumstehen und nichts tun, außer Strom zu verbrauchen, und das ist ungeheuerlich“, sagt Koomey.

In einem Bericht aus dem Jahr 2016 schätzt das Lawrence Berkeley National Laboratory, dass, wenn 80% der Server in kleinen US-Rechenzentren auf hyperskalige Anlagen umgestellt würden, dies zu einem Rückgang des Energieverbrauchs um 25% führen würde 4 . Dieser Schritt ist im Gange. Heute gibt es in der Welt etwa 400 hyper-skalierte Rechenzentren, von denen viele Dienste für kleine Unternehmen oder Universitäten bereitstellen, die in der Vergangenheit ihre eigenen Server hatten. Sie machen bereits 20% des weltweiten Stromverbrauchs von Rechenzentren aus. Bis zum Jahr 2020 werden Hyperscale-Zentren fast die Hälfte ausmachen, sagt die IEA (siehe ‚Hyperscale Shift‘).

Quelle: IEA

Running heiß und kalt

Sobald die Hyperskalierer so viel wie möglich von der Last genommen haben, werden weitere Effizienzen schwieriger zu finden sein. Aber Unternehmen versuchen es. Eine aufkommende Managementtechnik besteht darin, sicherzustellen, dass die Server so oft wie möglich mit Vollgas arbeiten, während andere ausgeschaltet sind und nicht im Leerlauf bleiben. Facebook hat ein System namens Autoscale erfunden, das die Anzahl der Server reduziert, die während der verkehrsschwachen Stunden eingeschaltet sein müssen; In Tests führte dies zu Stromeinsparungen von etwa 10-15%, berichtete das Unternehmen 2014 .

Ein großer Weg, den die Hyperskalierer ihre PUE verringert haben, ist Kühlung. In einem herkömmlichen Rechenzentrum kann die Standardklimatisierung 40% der Energierechnung in Anspruch nehmen. Der Einsatz von Kühltürmen, die Wasser verdampfen, um die Luftkühlung zu steuern, verursacht ein weiteres Umweltproblem: In den US-Rechenzentren wurden 2014 schätzungsweise etwa 100 Milliarden Liter Wasser verbraucht . Die Vermeidung von Kompressionskältemaschinen und Kühltürmen hilft, beides zu sparen Energie und Wasser.

Eine populäre Lösung besteht darin, Rechenzentren einfach in kühlen Klimazonen zu lokalisieren und die Außenluft hinein zu blasen. Solche Zentren müssen nicht in eisigen Regionen liegen: Prineville ist kühl genug, um von der so genannten „freien Luftkühlung“ zu profitieren, und das gilt auch für viele andere Rechenzentren, sagt Ingmar Meijer, Physiker bei IBM Research in Zürich , Schweiz.

Kühlrohre im Rechenzentrum von Google in Oregon

In diesem von Google betriebenen Rechenzentrum in Oregon liefern blaue Rohre kaltes Wasser und rote Rohre warmes Wasser zur Kühlung. Kredit: Connie Zhou / Google / Zuma

Leitungswasser ist ein noch besserer Wärmeleiter, so dass die Zentren mit warmem Wasser gekühlt werden können, das für die Herstellung und Wiederverwertung im Kühlsystem weniger energieintensiv ist. Selbst in gemäßigten Klimazonen ist die Warmwasserkühlung die De-facto-Lösung für die Verwaltung von Hochleistungscomputern, die schnell und heiß betrieben werden, darunter die Labore des US-Energieministeriums und SuperMUC der Bayerischen Akademie der Wissenschaften in Garching. Handelszentren in warmen Klimazonen investieren manchmal auch in diese Systeme, wie das Projekt Mercury von eBay in Phoenix, Arizona.

Für High-Density- und High-Power-Computing ist es am effizientesten, die Server in ein nicht leitfähiges Öl- oder Mineralbad zu tauchen. Facebook hat das 2012 getestet, um seine Server mit höheren Geschwindigkeiten zu betreiben, ohne sie zu überhitzen. Vorerst ist die Tauchkühlung ein Spezialgebiet mit kniffligen Wartungsarbeiten, sagt Meijer.

Im Jahr 2016 hat Google sein Forschungsteam für künstliche Intelligenz (KI) von DeepMind damit beauftragt, das Kühlsystem des Rechenzentrums auf das Wetter und andere Faktoren abzustimmen. Google sagt, dass das Team bei Tests seine Kühlungsrechnung um 40% reduziert und „den niedrigsten PUE-Wert produziert hat, den die Website je gesehen hat“. Im August dieses Jahres gab das Unternehmen bekannt, die Kühlungssteuerung einiger Rechenzentren auf seinen AI-Algorithmus umgestellt zu haben .

Innovative Kühllösungen zu erforschen und bestehende zu sparen, wird in den kommenden Jahren noch wichtiger werden, sagt Carter. „Wenn wir die Welt verbinden, gibt es Gebiete, in denen keine freie Luftkühlung möglich ist“, sagt er und zeigt auf Afrika und Südasien. Und andere Entwicklungen werden die IT-Infrastruktur auf neue Art und Weise besteuern. Wenn selbstfahrende Autos auf die Straßen strömen, werden beispielsweise kleine Serverinstallationen an der Basis von Mobilfunkmasten, die dazu dienen, diese Autos zu kommunizieren und zu verarbeiten, leistungsstarke Geräte benötigen, die Echtzeit-KI-Arbeitslasten bewältigen können. und bessere Kühloptionen. In diesem Jahr startete das Open Compute Project ein Projekt zur fortgeschrittenen Kühlung mit dem Ziel, effiziente Kühlsysteme zugänglicher zu machen. „Die Hyperscalers haben es herausgefunden; Sie sind extrem effizient „, sagt Carter. „Wir versuchen den anderen Jungs zu helfen.“

Quellen: IEA / A. Andrae / Ref. 6

Hand in Hand mit besserer Kühlung ist die Idee, die von den Servern kommende Wärme zu nutzen und damit den Strombedarf anderswo zu senken. „Es ist wie eine freie Ressource“, sagt IBM-Forscher Patrick Ruch in Zürich. Es gibt einige Beispiele: Das Condorcet-Rechenzentrum in Paris schickt seine Abwärme direkt in ein benachbartes Climate Change Arboretum, wo Wissenschaftler die Auswirkungen hoher Temperaturen auf die Vegetation untersuchen. Ein IBM Rechenzentrum in der Schweiz wärmt ein nahegelegenes Schwimmbad. Da die Wärme nicht gut fließt, ist die Abwärmenutzung tendenziell auf Rechenzentren beschränkt, die sich neben einem geeigneten Kunden befinden, oder in einer Stadt, in der bereits warmes Wasser für die Beheizung von Häusern verwendet wird.

Eine Streuung von Akteuren zielt darauf ab, die Abwärme allgemein nutzbar zu machen, einschließlich vorbereitender Bemühungen, sie in Elektrizität umzuwandeln. Andere wollen die Abwärme nutzen, um Kühlgeräte zu betreiben – IBMs 2 Millionen US-Dollar-Projekt THRIVEzum Beispiel entwickelt neue Materialien, die Wasserdampf besser absorbieren und bei Hitze freisetzen können, um effizientere Sorptionswärmepumpen herzustellen „Rechenzentren cool zu halten.

Machtspiel

Im Kern sind Rechenzentren nur so gut wie die Prozessoren, aus denen sie bestehen – und auch dort gibt es Raum für Verbesserungen. Seit den 1940er Jahren hat sich die Anzahl der Operationen, die ein Computer mit jeder Kilowattstunde (kWh) Energie ausführen kann, etwa einmal alle 1,6 Jahre für die Spitzenleistung und alle 2,6 Jahre für die durchschnittliche Leistung verdoppelt. Das ist eine 10-Milliarden-fache Verbesserung in 50 Jahren. Durch einige Maßnahmen hat sich die Geschwindigkeit der Verbesserung seit 2000 verlangsamt, und die aktuelle Generation der Computer wird nach Koomeys Berechnungen 5gegen eine physikalische Barriere stoßen, die die Funktion von Transistoren in nur wenigen Jahrzehnten begrenzt .

„Wir sind gegen die Grenzen der Schrumpfung“, sagt Koomey. Danach müssten Effizienzgewinne erzielt werden, sagt er, werde eine Revolution in der Art und Weise, wie Hardware gebaut und mit Computern gearbeitet wird, erfordern : vielleicht durch eine Umstellung auf Quantencomputer. „Es ist im Grunde unmöglich vorherzusagen“, sagt er.

Obwohl der Schwerpunkt auf der Verringerung des Energieverbrauchs von IKT liegt, sollte daran erinnert werden, dass die Informationsindustrie unseren Strom auch anderswo intelligenter und effizienter nutzen könnte. Die IEA stellt fest, dass zum Beispiel bei einer Automatisierung aller Fahrzeuge die utopische Möglichkeit besteht, dass ein reibungsloserer Verkehrsfluss und eine leichtere Mitfahrgelegenheit den gesamten Energiebedarf der Transportbranche um 60% senken würde. Gebäude, auf die in den vergangenen 25 Jahren 60% des weltweit gestiegenen Strombedarfs entfielen, bieten enorme Möglichkeiten zur Verbesserung der Energieeffizienz: Intelligentes Heizen und Kühlen, angeschlossen an Gebäudesensoren und Wetterberichte, könnten 10% ihrer Zukunft einsparen Energiebedarf. Chiara Venturini, Direktorin der Global e-Sustainability Initiative, einem in Brüssel ansässigen Branchenverband, schätzt, dass die IT-Branche derzeit schrumpft 1.

Quelle: IEA

Die IKT könnten auch dazu beitragen, die globalen Emissionen zu verringern, indem erneuerbare Energien gegenüber fossilen Brennstoffen gestärkt werden. Im Jahr 2010 veröffentlichte die Umweltgruppe Greenpeace ihren ersten ClickClean-Bericht , in dem die wichtigsten Unternehmen aufgeführt und die Umweltbelastung durch die IT beleuchtet wurde. Im Jahr 2011 verpflichtete sich Facebook, 100% erneuerbare Energie zu verwenden. Google und Apple folgten 2012. Ab 2017 hatten fast 20 Internetfirmen das gleiche getan. (Chinesische Internetgiganten wie Baidu, Tencent und Alibaba haben dem jedoch nicht gefolgt.) IT-Unternehmen spielten 2010 noch eine vernachlässigbare Rolle bei Kaufverträgen für erneuerbare Energien mit Energieunternehmen; bis 2015 machten sie mehr als die Hälfte dieser Vereinbarungen aus (siehe „Grünes Wachstum“). Google ist der größte Käufer von erneuerbaren Energien auf dem Planeten.

Die Reduzierung unseres Datenhungers könnte der ultimative Weg sein, um zu vermeiden, dass der Energieverbrauch in Hyper-Drives fließt. Aber es ist schwer zu sehen, dass sich jemand auf Netflix beschränkt, was mehr als ein Drittel des Internetverkehrs in den USA ausmacht. Das Verbot von hochauflösenden Farbkameras allein auf Telefonen könnte den Datenverkehr in Europa um 40% reduzieren, sagt Ian Bitterlin, beratender Ingenieur und Datenzentrumsexperte in Cheltenham, Großbritannien. Aber, fügt er hinzu, niemand würde es wagen, solche Regeln einzuführen. „Wir können den Deckel nicht wieder auf Pandoras Kiste legen“, sagt er. „Aber wir könnten die Rechenzentrumsleistung reduzieren.“

Anmerkung: Der Autor hätte vielleicht auf aufgeblasene Bilder verzichten sollen, hier ein online Bilder Dither:

For those who want to build their own solar powered website, we have released the source code and a manual outlining all hardware and software details.

Canvas Dither your Pictures

Custom Image
Greyscale Conversion Method


Dithering Method











Output Format

Spread the word. Share this post!

Leave Comment

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

code