Resultat 1 - 10 av 16
El-hungriga datacenter skriker efter kärnkraft
Dessutom, säger Matt Kimball, chefsanalytiker på Moor Insights & Strategy, är SMR inte en mindre version av Three Mile Island eller Tjernobyl. – Förutom att de är betydligt mindre kräver de mindre bränsle, de kan klara sig i upp till 30 år utan bränslepåfyllning,Sammanhang: ...Han tillägger: – Vi befann oss redan på en uppåtgående bana, och de krafthungriga kraven från GPU:er och AI har bara skruvat upp den konversationen till 11. SMR kan teoretiskt sett placeras precis bredvid ett datacenter, som portabla klassrum bredvid en gymnasieskola vars elevantal har ökat över förväntan. ...
Omnämnda platser: Storbritannien, GPU:er, Kanada. Omnämnda personer: Peterson Corio, Scott Burnell, Info-Tech Research Group.
Molnjättarnas egna chipp ska möta kraftigt ökad efterfrågan
– Trots att GPU:er har revolutionerat prestandaintensiva arbetsbelastningar som modellering, simulering, träning och inferens inom AI och maskininlärning, är de strömhungriga och kräver ytterligare kylning, säger Mario Morales, analytiker på analysföretagetSammanhang: ...Till råga på allt är GPU:er en bristvara. Så pass att chipptillverkare som Nvidia, AMD och Intel har börjat öka produktionskapaciteten och har presenterat planer på att introducera nya processorer. ...
Omnämnda platser: Morgan. Omnämnda personer: Mario Morales, Blackwell GPU:er.
Här är Gartners 10 hetaste tekniktrender för 2025
– För att hantera dessa utmaningar och underlätta övergången till nya algoritmer bör man börja med att ta fram policyer för algoritmers substitution, datalagring och hur man byter ut eller ändrar den befintliga användningen av kryptografi. Ett policybaseratSammanhang: ...Nya dataparadigm dyker ständigt upp, inklusive processorer, GPU:er, edge computing, applikationsspecifika integrerade kretsar, neuromorfiska system och kvantsystem, säger Alvarez. ...
Omnämnda personer: Invisible Intelligence.
Tro inte att ditt AI-projekt ska ge snabb avkastning
En utmaning för cio:er är att bestämma sig för när man ska avsluta ett AI-projekt. Valet beror på de unika omständigheterna och behoven i varje organisation, säger Curran. Det finns ingen formel som cio:er och andra it-ledare kan följa. Rädsla för att hamnaSammanhang: ...Precis som Fernandes har Rob Owen, cio på redovisnings- och it-rådgivningsföretaget Sax, sett vissa organisationer rusa iväg för att ta till sig AI, där vissa tidiga användare betalar en hög avgift för att hyra GPU:er och annan infrastruktur. – Vi har sett många projekt som stannade upp och där de sa: ”De här kostnaderna börjar bli okontrollerbara”, eftersom de hade underskattat den tid och de resurser, ur ett tekniskt perspektiv, som skulle krävas för att få det gjort. ...
Omnämnda platser: UEGroup. Omnämnda personer: Tony Fernandes, Rob Owen.
Varningen: dags att förbereda för nästa chippbrist
Viktiga resultat visade att: Utgifterna för datacenter och de specialiserade chipp som driver dem visar inga tecken på att avta. Stora molntjänstleverantörer förväntas öka sina investeringar med 36 procent 2024 jämfört med året innan, till stor del tackvareSammanhang: ... – Ska du till exempel satsa på Nvidias nästa generations Blackwell-serie av GPU:er, eller ska du köpa den första generationens H100 och lägga mer tid på att träna din modell som ett alternativ? ...
Omnämnda personer: Scott Bickley, Info-Tech Research Group.
Här hamnar molnuppstickarens svenska storsatsning
I början av sommaren meddelade hajpade molnbolaget Coreweave att Sverige är ett av de länder som ingår när företaget satsar på datacenter i Europa. Totalt uppgavs investeringen till 23 miljarder kronor, fördelat på Sverige, Norge och Spanien. Företaget erbjuderSammanhang: ...Företaget erbjuder molninfrastruktur anpassad för AI-arbetsbelastningar, vilket i praktiken innebär att man hyr ut GPU:er, framför allt från Nvidia. Nu står det klart att det blir Falun som får står värd för Coreweaves infrastruktur. ...
Omnämnda platser: Sverige, Norge, Falun.
Studie: Nvidia levererade 3,76 miljoner datacenter-GPU:er förra året
Enligt en ny studie från analysfirman TechInsights så ska Nvidia levererat hela 3,76 miljoner datacenter-GPU:er under 2023. Detta är en ökning med över en miljon enheter jämfört med 2022 då totalen uppgick till 2,64 miljoner leveranser, rapporterar HPC Wire.Sammanhang: ...Enligt en ny studie från analysfirman TechInsights så ska Nvidia levererat hela 3,76 miljoner datacenter-GPU:er under 2023. Detta är en ökning med över en miljon enheter jämfört med 2022 då totalen uppgick till 2,64 miljoner leveranser, rapporterar HPC Wire. ...
Microsoft Azure “utökas“ till Oracles moln för att ge mer plats åt Open AI
Oracle, Microsoft och Open AI har nu inlett ett samarbete för att utöka Microsofts Azure AI-plattform till Oracle Cloud Infrastructure (OCI) och därmed ge ytterligare kapacitet till Open AI. “OCI kommer att utöka Azures plattform och möjliggöra för OpenAISammanhang: ...Det är oklart om samarbetet beror på att Azure inte kan täcka upp Open AI:s behov av GPU:er på egen hand. The Register skriver att i ett samtal med företagets investerare säger Oracles CTO, Larry Ellison, att Microsoft håller på att bygga ett “väldigt, väldigt stort datacenter”, där hälften kommer att användas av Microsoft själva....
Omnämnda personer: Larry Ellison, Open AI:s, Oracle Cloud Infrastructure.
Kan Intels nya chipp utmana AI-dominanten Nvidia?
– Om man tänker sig att AI efterliknar vad människor gör och att människor utför många olika uppgifter som kräver olika kombinationer av funktioner, så är det självklart att AI behöver olika funktioner beroende på uppgiften, fortsätter Rau. – Dessutom ärSammanhang: ...Nvidia har varit mindre fokuserat på det området eftersom GPU:er för datacenter/moln fortfarande är en snabbt växande marknad, säger Heyden. Mindre LLM:er – en öppning för Intel? ...
Omnämnda platser: Xeon. Omnämnda personer: Core Ultra, Nvidias GPU:er.
Sverige är mer en el-nation än en AI-nation
Hur som helst är det vi ser nu att Microsoft, och andra, satsar massivt för att möta både nuvarande och kommande efterfrågan på AI-kraft. Det kräver tiotusentals GPU:er, det kräver större och fler datacenter – och det kräver oerhört mycket el. Och gynnsamtSammanhang: ...Hur som helst är det vi ser nu att Microsoft, och andra, satsar massivt för att möta både nuvarande och kommande efterfrågan på AI-kraft. Det kräver tiotusentals GPU:er, det kräver större och fler datacenter – och det kräver oerhört mycket el. Och gynnsamt företagsklimat i all ära så är nog en gynnsam elförsörjning prio ett när molnaktörerna planerar var de ska bygga ut sin kapacitet. ...
Omnämnda platser: Stockholm Exergis, USA, Sverige. Omnämnda personer: Brad Smith, T Loop.