Datasentre spiser mer kraft enn noen forventet. Bransjen kappløper for å ta igjen.

2026-04-29 - Legg igjen en melding

I årevis har historien omdatasenterenergiforbruket fulgte en forutsigbar bue. Digitaliseringen vokste, selvfølgelig, men effektivitetsgevinster fra bedre servere, virtualisering og skykonsolidering holdt det totale strømforbruket overraskende flatt. Den globale kraftetterspørselen til datasenter lå rundt 1 prosent av det totale strømforbruket – omtrent 200 terawatt-timer årlig – i det meste av et tiår.

Den epoken er over.

Konvergensen av generativ AI, gruvedrift av kryptovaluta, edge computing og den eksponentielle veksten av tilkoblede enheter har brutt den gamle effektivitetskurven. Industriestimater viser nå at etterspørselen etter datasenterkraft vokser med årlige rater som ikke har vært sett siden tidlig på 2000-tallet. I noen regioner - Irland, Nord-Virginia, Singapore - står datasentre allerede for 15 til 25 prosent av det totale strømforbruket, noe som tvinger regulatorer til å innføre moratorier for nybygging.

På dette bakteppet har infrastrukturvalg som en gang virket som tekniske detaljer – kjølearkitektur, strømdistribusjonstopologi, racktetthetsplanlegging – blitt styreromsbeslutninger. Energikostnad er ikke lenger en artikkel. Det er en begrensning for vekst.


Den enkle metrikken som endret alt

Power Usage Effectiveness, eller PUE, har vært datasenterindustriens standard effektivitetsmåling i nesten to tiår. Det er et enkelt forhold: total anleggskraft delt på IT-utstyrskraft.

En PUE på 2.0 betyr at for hver watt som driver servere og lagring, går en annen watt til kjøling, belysning, strømkonverteringstap og andre overhead. En PUE på 1,2 betyr at overhead kun bruker 0,2 watt per IT-watt.

Bransjen har bredt akseptert nivåer basert på PUE:

Nivå PUE DCiE Hva det betyr
Platina <1,25 >0,80 Effektivitet i verdensklasse, krever vanligvis frikjøling eller væskekjøling
Gull 1,25 – 1,43 0,70 – 0,80 Veldig effektiv, oppnåelig med moderne design i moderat klima
Sølv 1,43 – 1,67 0,60 – 0,70 Akseptabelt for eldre anlegg eller varmere klima
Bronse 1,67 – 2,00 0,50 – 0,60 Typisk for eldre datasentre uten store ettermonteringer
Rettferdig 2.00 – 2.50 0,40 – 0,50 Dårlig effektivitet, høye driftskostnader
Fattig >2,50 <0,40 Kritisk ineffektivitet, krever sannsynligvis umiddelbar oppmerksomhet

Problemet er at mange organisasjoner faktisk ikke kjenner sin PUE. De anslår. De gjetter. Eller de måler kun på hovedmåleren og tar resten.

En bransjeundersøkelse fra 2023 fant at nesten 40 prosent av datasenteroperatørene aldri hadde målt PUE på racknivå. Blant de som gjorde det, var spredningen mellom rapportert og faktisk PUE i gjennomsnitt 0,3 poeng – nok til å flytte en fasilitet fra gull til sølv uten at noen la merke til det.

Hvor kraften faktisk går

Å forstå hvorfor PUE varierer så mye starter med å se på hvor strøm forlater et datasenter.

I et typisk luftkjølt anlegg med en PUE rundt 1,8 ser sammenbruddet omtrent slik ut:

  • IT-utstyr (servere, lagring, nettverk): 55-60 prosent
  • Kjøling (CRAC/CRAH-enheter, kjølere, pumper, tørrkjølere): 30-35 prosent
  • Strømfordeling (UPS, transformatorer, PDU-tap): 5-8 prosent
  • Belysning og annen anleggsbelastning: 2-4 prosent

Kjølebelastningen er den største variabelen. Et anlegg i et temperert klima som bruker uteluft til frikjøling, kan bruke bare 15 prosent av sin ikke-IT-kraft på kjøling. Det samme anlegget i et tropisk klima med mekanisk kjøling året rundt kan bruke 40 prosent.

Dette er grunnen til at samlokaliseringsleverandører annonserer PUE på anleggsnivå, men leverer PUE på kundemåleren – forskjellige tall, forskjellige implikasjoner. Kunden betaler for alt.

Skiftet fra tradisjonell infrastruktur til skyskala

Tradisjonell datasenteradministrasjon antok et relativt statisk miljø. Stativer ble fylt over måneder eller år. Avkjøling kan justeres sakte. Strømfordelingen var overdimensjonert fra dag én.

Skytiden endret forutsetningene. Stativer fylles nå dager. Arbeidsbelastninger skifter automatisk på tvers av servere. AI-klynger med høy tetthet kan trekke tre ganger så mye kraft som tilstøtende datastativer for generell bruk.

Disse endringene har tvunget til en nytenkning av infrastrukturforvaltningen. Tre trender skiller seg ut.

For det første øker tettheten ujevnt.Et standard serverrack for ti år siden trakk 5-8 kilowatt. I dag trekker stativer for generelle formål 10-15 kilowatt. Høyytelses databehandlings- og AI-treningsstativer overstiger rutinemessig 30 kilowatt per stativ. Noen overstiger 50 kilowatt.

Dette skaper varmestyringsutfordringer som luftkjøling sliter med å løse. Ved 20 kilowatt per stativ forblir luftkjølingen effektiv med riktig inneslutning. Ved 30 kilowatt blir det marginalt. Ved 40 kilowatt og over går væskekjøling fra valgfritt til nødvendig.

For det andre har kapasitetsplanlegging blitt prediktiv.Den gamle metoden – kjøp mer kapasitet enn nødvendig og la den stå stille – fungerer ikke lenger i stor skala. Tomgangskapasitet har både kapitalkostnader og løpende vedlikeholdskostnader.

Moderne infrastrukturstyringssystemer bruker historiske data og arbeidsbelastningsprognoser for å forutsi når strøm, kjøling eller stativplass vil gå tom. De beste systemene kan anbefale om de skal rekonfigurere eksisterende kapasitet eller bestille ny maskinvare, dager eller uker før en begrensning blir kritisk.

For det tredje har krav til synlighet ekspanded.Et tradisjonelt datasenter kan spore strøm på PDU-nivå. Et moderne anlegg trenger synlighet på racknivå, noen ganger på servernivå, og i økende grad på arbeidsbelastningsnivå – å vite hvilken virtuell maskin eller container som driver hvilket strømforbruk.

DCIM-laget: Hva det faktisk gjør

DatasenterinfrastrukturManagement (DCIM) programvare har eksistert i over et tiår, men bruken er fortsatt ujevn. Mindre enn halvparten av bedriftens datasentre har implementert et komplett DCIM-system. Mange som brukte bare en brøkdel av dens evner.

Et riktig implementert DCIM-system gjør fire ting:

Kapitalforvaltning.Hver server, switch, PDU og kjøleenhet spores i en konfigurasjonsadministrasjonsdatabase (CMDB). Plassering, strømvurdering, nettverkstilkoblinger, vedlikeholdshistorikk – alt sammen. Dette høres grunnleggende ut, men mange organisasjoner sporer fortsatt eiendeler i regneark som går måneder mellom oppdateringer.

Sanntidsovervåking.Strømforbruk på PDU- eller stativnivå, temperatur og fuktighet ved tilførsels- og returpunkter, kjølesystemstatus, UPS-batterihelse. Alarmer utløses når parametere avviker fra settpunkter. Målet er å oppdage problemer før de forårsaker nedetid.

Kapasitetsplanlegging.Systemet vet hvor mye strøm og kjølekapasitet som er tilgjengelig, hvor mye som er i bruk og hvor mye som er reservert for fremtidig distribusjon. Det kan modellere virkningen av å legge til et nytt rack med høy tetthet eller pensjonere et sett med eldre servere.

Visualisering.En digital tvilling av datasenteret – stativ for stativ, brikke for flis – viser gjeldende forhold og lar operatører simulere endringer. Legge til 10 kilowatt last til rad tre, kolonne fire: overskrider det kjølekapasiteten? Systemet svarer før noen flytter utstyr.

Effektivitetsmatematikken som faktisk fungerer

Å kutte datasenterets energiforbruk er ikke mystisk. Metodene er godt forstått. Utfordringen er implementeringsdisiplin.

Øk tilluftstemperaturen.De fleste datasentre er kalde – 18 til 20 grader Celsius ved retur av kjøleenheten – fordi det er det operatører alltid har gjort. ASHRAE-retningslinjene anbefaler nå 24 til 27 grader. Hver gradsøkning reduserer kjøleenergien med omtrent 4 prosent. Å kjøre på 26 grader i stedet for 20 grader sparer 20-25 prosent av kjølekraften.

Eliminer varm og kald luftblanding.Oppbevaring av varmgang, oppbevaring av kaldt gang eller vertikale avtrekkskanaler tvinger kjøleluften til å gå dit den er nødvendig i stedet for å sykle kort gjennom fronten av stativene. Inneslutning alene reduserer typisk kjøleenergien med 15-25 prosent.

Bruk stasjoner med variabel hastighet.Vifter og pumper med konstant hastighet sløser med energi ved dellast. Drifter med variabel hastighet tilpasser luftstrøm og vannstrøm til faktisk behov. Tilbakebetalingsperioder for ettermontering er vanligvis 1-3 år.

Optimaliser UPS-driften.De fleste UPS-systemer kjører i dobbeltkonverteringsmodus kontinuerlig – konverterer AC til DC og tilbake til AC selv når strømforsyningen er ren. Moderne UPS-systemer kan bytte til øko-modus når strømkvaliteten tillater det, og oppnå 99 prosent effektivitet i stedet for 94-96 prosent. Avveiningen er en kort overføringstid til batteriet hvis strømforsyningen svikter. For IT-belastninger med strømforsyninger designet for slike overføringer er risikoen minimal.

Vedta distribusjon med høyere spenning.Distribusjon av strøm på 415V i stedet for 208V reduserer distribusjonstap med omtrent 25 prosent. Dette krever kompatible PDUer og serverstrømforsyninger, men mange moderne enheter støtter det.

Hvordan effektiviteten i den virkelige verden ser ut

Shangyu CPSY Company, en høyteknologisk bedrift med fokus på datasenterinfrastruktur, rapporterer en PUE på 1,3 for sine modulære datasenterløsninger. Dette plasserer selskapet i gullnivået, og beveger seg mot platina.

De påståtte 25 prosent energibesparelsene sammenlignet med konvensjonelle design kommer fra flere faktorer. Modulære UPS-systemer med 97,4 prosent effektivitet på systemnivå reduserer distribusjonstap som ellers kjører 15-20 prosent. Presisjonsklimaanlegg med kompressorer med variabel hastighet og EC-vifter justerer kjøleeffekten for å matche faktisk varmebelastning i stedet for å kjøre med fast kapasitet. Og den fysiske utformingen – oppbevaring av varmganger, optimal stativavstand, hevet gulv med perforerte fliser i riktig størrelse – tar for seg luftstrømstyringen som undergraver mange ellers effektive fasiliteter.

Selskapets sertifiseringsportefølje inkluderer ISO 9001 (kvalitetsstyring) og ISO 27001 (styring av informasjonssikkerhet). Kundedistribusjonene inkluderer partnerskap med Huawei, ZTE og Inspur, med eksportinstallasjoner i USA, Storbritannia, Tyskland, Frankrike og Australia.

Hvor væskekjøling kommer inn i bildet

I årevis var væskekjøling en nisjeteknologi for superdatasentre. Det endrer seg raskt.

AI-treningsklynger som bruker NVIDIA H100 eller kommende B200 GPUer genererer 30–50 kilowatt per rack i rent luftkjølte konfigurasjoner. Ved disse tetthetene krever luftkjøling høye luftstrømhastigheter - høye vifter, dype stativer og fortsatt marginal termisk kontroll.

Direkte-til-chip væskekjøling fjerner 60-80 prosent av varmen ved kilden. Chipsen går kjøligere. Viftene går saktere. Romklimaanlegget håndterer bare den gjenværende varmen fra strømforsyninger, minne og andre komponenter.

Effektivitetsgevinsten er betydelig. Anlegg med direkte-til-brikke-kjøling rapporterer PUE-verdier på 1,1 til 1,2. Avveiningene er høyere kapitalkostnader, mer kompleks lekkasjehåndtering og behovet for vannbehandling av anleggskvalitet.

Full nedsenkingskjøling – nedsenking av hele servere i dielektrisk væske – presser PUE under 1,1, men forblir spesialisert. De fleste kommersielle datasentre vil ta i bruk direkte-til-brikke-kjøling først, nedsenking senere for spesifikke soner med høy tetthet.

SHANGYU-datasenterplattformen inkluderer bestemmelser for både luft- og væskekjølingsarkitekturer, og erkjenner at fremtidige høytetthetsutplasseringer vil kreve væskebasert termisk styring uavhengig av anleggets design.

Management Gap: Fra reaktiv til prediktiv

De fleste datasenterdriftsteam jobber fortsatt reaktivt. En alarm lyder. Noen etterforsker. En rettelse er tatt i bruk. Syklusen gjentas.

Overgangen til prediktiv ledelse krever tre evner som mange organisasjoner mangler.

Fullfør konfigurasjonsdata.Å vite hva som er i datasenteret – hver server, hver switch, hver PDU, hver kjøleenhet – er grunnlaget. Uten nøyaktige CMDB-data er kapasitetsplanlegging gjetting.

Granulær telemetri.Effektmåling på stativnivå er minimum. Strømmåling per server er bedre. Kraftattribusjon på arbeidsbelastningsnivå er best, men vanskeligst å oppnå.

Analyser som skiller signal fra støy.En temperaturøkning på ett stativ kan bety en feilslått vifte. En temperaturøkning over halve datasenteret kan bety en kjølefeil. Systemet må differensiere og anbefale svar deretter.

DCIM-plattformen fra SHANGYU gir SNMP- og Modbus-enhetsstøtte, nettbaserte og Windows-applikasjonsgrensesnitt og integrasjon med nettverkskameraer for hendelsesutløst bildebehandling. De uttalte målene er enkle: reduser kostbar nedetid, kutt daglige driftskostnader gjennom fullstendig miljøkontroll, og forbedre ledelsens synlighet og sporbarhet.

Hvorfor dette betyr noe utover datasenteretasjen

Datasenterets energiforbruk utgjør omtrent 1 prosent av den globale etterspørselen etter elektrisitet. Det tallet høres lite ut før det settes i sammenheng. Det tilsvarer omtrent det totale strømforbruket i Storbritannia.

Enda viktigere er at vekstraten akselererer. Bransjefremskrivninger viser at etterspørselen til datasenteret øker med 10–15 prosent årlig frem til 2030, drevet av AI, skyadopsjon og den fortsatte utvidelsen av tilkoblede enheter. Med den hastigheten vil datasentre forbruke 3-4 prosent av den globale elektrisiteten ved slutten av tiåret.

Effektivitetsgevinstene som holdt strømforbruket flatt det forrige tiåret kom fra servervirtualisering (redusering av fysisk serverantall), forbedret stasjonseffektivitet (flytting fra spinnende disker til SSD-er) og bred distribusjon av frikjøling (ved bruk av uteluft i stedet for mekanisk kjøling). De lavthengende fruktene har i stor grad blitt plukket.

Den neste effektivitetsbølgen vil komme fra væskekjøling, distribusjon med høyere spenning, AI-optimaliserte kjølekontroller, og – kanskje viktigst – bedre justering mellom infrastrukturkapasitet og faktisk IT-belastning. Det siste stykket krever den typen sanntidssynlighet og prediktiv analyse som DCIM-systemer gir, men få fasiliteter bruker fullt ut.

Noen spørsmål verdt å stille om din egen infrastruktur

Kjenner du din faktiske PUE, ikke nummeret på spesifikasjonsarket?Hvis du ikke har målt ved UPS-utgangen og ved IT-utstyrsinngangen, vet du ikke. Forskjellen er din virkelige overhead.

Kjemper kjølesystemene dine mot hverandre?I mange datasentre er CRAC-enheter satt med overlappende temperatur- og fuktighetsbånd. En enhet avfukter mens en annen fukter. En avkjøles mens en annen varmes opp. Dette er ikke uvanlig. Det er heller ikke effektivt.

Hva er det inaktive strømforbruket til serverne dine?Bransjedata viser at typiske bedriftsservere trekker 30-40 prosent av toppeffekten når de ikke gjør noe. Å stenge eller sette ubrukte servere i dvale er det høyeste ROI-effektivitetstiltaket som er tilgjengelig. Det er også den mest oversett.

Kan du heve tilluftstemperaturen med to grader uten å bryte utstyrsspesifikasjonene?Sannsynligvis ja. Det meste utstyret er klassifisert for 25-27 graders inntakstemperatur. De fleste datasentre kjører på 20-22 grader. Det seks-graders gapet representerer år med unødvendig kjøleenergi.

Når var siste gang du validerte UPS-effektiviteten din?Navneskiltets effektivitet måles ved full belastning med perfekt effektfaktor. Virkelig effektivitet ved dellast med virkelig effektfaktor kan være 5-10 poeng lavere.





Tidligere:Ingen nyheter

Send forespørsel

X
Vi bruker informasjonskapsler for å gi deg en bedre nettleseropplevelse, analysere nettstedstrafikk og tilpasse innhold. Ved å bruke denne siden godtar du vår bruk av informasjonskapsler. Personvernerklæring