Resultat 1 - 10 av 41
Microsoft säger sig ha gjort genombrott för chippkylning
Microsoft har presenterat vad företaget beskriver som ett genombrott inom kylteknik för AI-datacenter. Metoden bygger på så kallad mikrofluidik, där kylvätska leds direkt in i kiselchipet genom mikroskopiska kanaler. På så sätt kan värmen avledas betydligtSammanhang: ...Enligt Microsoft kan tekniken ge upp till tre gånger bättre kylning och minska temperaturökningen i GPU:er med upp till 65 procent, beroende på chipp och arbetsbelastning. Resultatet kan bli högre prestanda, tätare serverplacering och ökad hållbarhet....
AI-investeringarna når 1,5 biljoner dollar 2025
Det amerikanska analys- och konsultföretaget Gartner räknar med att de globala AI-investeringarna kommer att uppgå till närmare 1,5 biljoner dollar under 2025, en kraftig ökning från cirka 1 biljon dollar året innan. Bakom utvecklingen ligger en fortsattSammanhang: ...Bakom utvecklingen ligger en fortsatt stark efterfrågan på AI och massiva satsningar på it-infrastruktur, särskilt datacenter utrustade med AI-optimerad hårdvara och GPU:er. “Landskapet för AI-investeringar expanderar också bortom de traditionella amerikanska teknikjättarna, och omfattar kinesiska företag samt nya molnleverantörer av AI”, säger Gartners analytiker John-David Lovelock i ett pressmeddelande....
Omnämnda personer: John-David Lovelock.
Så byggde Linkedin en plattform för agentisk AI
Den resulterande applikationen använder gränssnitt för naturligt språk för att snabbt filtrera jobbkandidater baserat på rekryteringsfrågor inom den befintliga Linkedin-plattformen, visa matchningar och hjälpa till att automatisera anställningsprocessen.DetSammanhang: ...Det finns andra avvägningar med en plattform som denna, till exempel tillgängligheten och kostnaden för GPU:er för inferens i stor skala. Eftersom den första applikationen som byggs på Linkedins plattform är utformad för att hjälpa rekryterare att hitta kandidater för en roll, kan mycket av den övergripande bedömningsprocessen levereras asynkront och behandla agentoperationer som en batchprocess för att spara resurser. ...
Omnämnda platser: Använda.
AI-kö hos jättarna – då tar neoclouds marknadsandelar
GPU:er behövs nu Tillgång till GPU:er och kostnader är de främsta anledningarna till att AI-användare i företag vänder sig till neoclouds. Nästan en tredjedel av respondenterna säger att kortare väntetider var det främsta skälet till att registrera sig hosSammanhang: ...GPU:er behövs nu Tillgång till GPU:er och kostnader är de främsta anledningarna till att AI-användare i företag vänder sig till neoclouds. ...
Omnämnda platser: GPU:er, Hosting Advice. Omnämnda personer: Joe Warnimont.
Ta hem AI-arbetet från molnet? En rejäl uppgradering av datacentret väntar
Ändå sker en övergång från det publika molnet i takt med att cio:er får bättre kontroll över sina AI-arbetsbelastningsbehov. Lokala infrastrukturer eller samlokaliserade datacenter kan erbjuda mer förutsägbara prismodeller än publika molntjänster som baserasSammanhang: ...Rack med helt nya GPU:er, även utan ny infrastruktur för strömförsörjning och kylning, kan vara kostsamma, och Schneider Electric rekommenderar ofta kostnadsmedvetna kunder att titta på tidigare generationers GPU:er för att spara pengar. ...
Omnämnda personer: Steve Carlini.
Open AI etablerar sitt första datacenter i Norden
Open AI lanserar nu sitt första Stargate-märkta AI-datacenter i Europa – i Narvik i norra Norge. Projektet är ett samarbete mellan brittiska Nscale och norska Aker. Open AI kommer inte att äga datacentret men blir dess huvudsakliga användare. DatacentretSammanhang: ...Datacentret ska drivas helt av förnybar energi från Nordkraft och väntas ha en kapacitet på 500 MW. Målet är att ha 100 000 Nvidia-GPU:er installerade till slutet av 2026, med potential för vidare expansion till 250 000 GPU:er. Aker och Nscale planerar att ge prioriterad tillgång till aktörer inom Norges AI-ekosystem. ...
Omnämnda platser: Norge, Narvik, Norden.
Neoclouds rullar in och utmanar molnjättarna om AI-jobben
– Neoclouds kan dra nytta av lägre kostnader eftersom de inte behöver underhålla en mängd olika nya och gamla infrastrukturer. Hyperscalers, å andra sidan, tillhandahåller ett brett utbud av processorer, GPU:er och specialutrustning för olika användningsfallSammanhang: ...Hyperscalers, å andra sidan, tillhandahåller ett brett utbud av processorer, GPU:er och specialutrustning för olika användningsfall i större skala över infrastruktur-, plattforms- och mjukvarutjänster. ...
Omnämnda platser: Neocloud.
Kostnaderna för AI-inferens skjuter i höjden – så får du kontroll
Dagens prissättningsplaner för inferenstjänster baseras på användningsmått, till exempel tokens eller API-anrop. Som ett resultat kan företag ha svårt att förutsäga sina kostnader. Denna oförutsägbarhet kan leda till att företag minskar sofistikeringen avSammanhang: ...Enligt Canalys kan specialiserad expertis inom AI-uppgifter vara avgörande för att lindra bördan av inferenskostnader genom att integrera skräddarsydda hårdvaruacceleratorer vid sidan av GPU:er, optimera effektiviteten och minska kostnaderna. Trots dessa ansträngningar för att implementera AI i stor skala i publika molnmiljöer finns det fortfarande tvivel om dess långsiktiga hållbarhet. ...
Omnämnda personer: Alastair Edwards, Google Cloud, Microsoft Azure.
Företag begränsar sin AI-användning på grund av otydliga kostnader
En ny rapport från analysföretaget Canalys argumenterar för att i takt med att företag nu tar AI-modeller från träning till praktisk användning, även kallad inferens, så har det blivit svårt för dem att förutspå vad den användningen kommer att leda till förSammanhang: ... – När AI går från forskning till storskalig implementering fokuserar företag allt mer på kostnadseffektivitet inom inferens, och jämför modeller, molnplattformar och hårdvaruarkitekturer såsom GPU:er kontra specialanpassade acceleratorer....
Omnämnda personer: Rachel Brindley.
Nya GPU:er för stationära datorer frigör AI-modellerna från molnet
Spark är uteslutande inriktad på AI, men Intel och AMD presenterade GPU:er som blandar AI och grafik. AI kräver vanligtvis speciella kretsar på GPU:er som kan utföra matrismultiplikationer. AMD:s Radeon 9700 AI Pro GPU har 128 AI-acceleratorer och kan köraSammanhang: ...Spark är uteslutande inriktad på AI, men Intel och AMD presenterade GPU:er som blandar AI och grafik. AI kräver vanligtvis speciella kretsar på GPU:er som kan utföra matrismultiplikationer. ...
Omnämnda personer: Jack Gold, J. Gold Associates.