Resultat 1 - 10 av 147
Intels nya satsning: egna GPU:er
Intel planerar att börja utveckla egna grafikprocessorer (GPU:er) för datacenter. Det uppger Intels vd Lip-Bu Tan i en intervju med Reuters. Marknaden för datacenter-GPU:er domineras i dag av Nvidia. Som en del av satsningen har Intel rekryterat Eric Demmers,Sammanhang: ...Intel planerar att börja utveckla egna grafikprocessorer (GPU:er) för datacenter. Det uppger Intels vd Lip-Bu Tan i en intervju med Reuters. Marknaden för datacenter-GPU:er domineras i dag av Nvidia. ...
Omnämnda personer: Eric Demmers.
Intel ger sig in på Nvidias revir – rekryterar toppchef
Ny chefsarkitekt ska stärka GPU-satsningen Enligt Tan har Intel nyligen rekryterat Eric Demmers, tidigare verksam vid Qualcomm, för att ta rollen som chefsarkitekt för GPU-området, rapporterar Finwire. Han kommer att arbeta nära Intels chef för datacenterchip,Sammanhang: ...Det krävdes “viss övertalning” för att den nya chefen skulle börja hos oss. Lip-Bu Tan GPU:er, tillverkade av bolag som Nvidia och AMD, har blivit avgörande för att driva stora språkmodeller. ...
Omnämnda platser: Demmers, Finwire. Omnämnda personer: Eric Demmers.
Tillverkarna: AI-pc ger högre hastigheter och lägre molnkostnader
– Vi är medvetna om att AI-arbetsbelastningar, även om de flyttas till kanten, inte kommer att ske över en natt., men det håller på att förändras, sa Jim Johnson, senior vice president och general manager för Client Computing Group på Intel, under en keynoteSammanhang: ...Det äldre Intel-chippet Lunar Lake hade bara 4 GPU-brickor. (GPU:er används också i molnet för att köra Open AI:s ChatGPT, Microsofts Azure AI och andra viktiga molntjänster.)...
Omnämnda personer: Microsofts Azure AI, Zach Noskey, Adobe Premiere.
Därför är AI-agenter så bra på att koda
Allt detta handlar i slutändan om en enorm mängd vektormatematik – svindlande mängder av beräkningar. Lyckligtvis är GPU:er riktigt bra på vektormatematik, och det är därför AI-företag har en omättlig aptit på GPU:er och varför Nvidia är det mest värdefullaSammanhang: ...Allt detta handlar i slutändan om en enorm mängd vektormatematik – svindlande mängder av beräkningar. Lyckligtvis är GPU:er riktigt bra på vektormatematik, och det är därför AI-företag har en omättlig aptit på GPU:er och varför Nvidia är det mest värdefulla företaget i världen just nu. ...
Omnämnda platser: Github, Stack.
Koll på GPU-priserna kan hjälpa it-chefer i budgettider
Traditionell AI-budgetering är starkt beroende av GPU-priser, timmar och instanspriser. GPU-instanser är ”svindlande dyra” med över 30 dollar per timme för avancerade konfigurationer på begäran, säger Corey Quinn, chefsekonom för molntjänster på Duckbill,Sammanhang: ...Samtidigt får mindre molnleverantörer – även kallade neoclouds – tillgång till fler GPU:er och gör dem tillgängliga för it-användare. Dessa företag inkluderar Coreweave, Lambda Labs och Together AI...
Omnämnda personer: Corey Quinn, Together AI.
Servermarknaden slår rekord – ökade med 61 procent
Servermarknaden slog rekord under tredje kvartalet 2025 med intäkter på 112,4 miljarder dollar, enligt IDC. Det är en ökning med hela 61 procent jämfört med samma period 2024. X86-servrar ökade med 32,8 procent till 76,3 miljarder dollar, medan icke-x86-servrarSammanhang: ...X86-servrar ökade med 32,8 procent till 76,3 miljarder dollar, medan icke-x86-servrar steg med 192,7 procent till 36,2 miljarder. Servrar med inbyggda GPU:er växte 49,4 procent och stod för mer än hälften av marknadens totala intäkter. USA var den snabbast växande regionen med en ökning på 79,1 procent, följt av Kanada med 69,8 procent och Kina med 37,6 procent. ...
Omnämnda platser: Kanada, Europa, Afrika.
Därför går cio:er från ”cloud first” till ”cloud smart”
Välja och omvärdera rätt molnjätte Procter & Gamble antog en ”cloud-first”-strategi när man började migrera arbetsbelastningar för ungefär åtta år sedan, säger Paola Lucetti, cto. Vid den tiden var kravet att alla nya applikationer skulle distribueras idenSammanhang: ...AI förändrar molnbesluten AI innebär en enorm potentiell kostnad och höjer insatserna för infrastrukturstrategin, säger McElroy. – Att hyra servrar med dyra Nvidia-GPU:er hela dagen, varje dag, i tre år kommer att vara ekonomiskt förödande jämfört med att köpa dem direkt, men flexibiliteten att kunna använda nästa års modeller utan problem kan utgöra en strategisk fördel. ...
Omnämnda platser: cto:er. Omnämnda personer: Michael Corrigan, Nik Kale, Paola Lucetti.
AMD släpper FSR Redstone
Ny version av deras uppskalningsteknik för spel AMD har nu släppt den senaste versionen av FidelityFX Super Resolution (FSR), en teknik för uppskalning och annat som kan göra att grafiken i spel ser bättre ut.Sammanhang: ...För att kunna utnyttja Redstone fullt ut krävs att användaren har en GPU i AMD:s Radeon 9000-serie, men en del av funktionerna ska även gå att använda med andra GPU:er. AMD skriver om Redstone: "Our FSR Upscaling technology (formerly FSR 4) now works alongside other new machine learning (ML)-powered advancements like FSR Frame Generation, FSR Ray Regeneration, and FSR Radiance Caching. ...
Omnämnda personer: these features.
Mjukvaruutveckling har ett ”996”-problem
Innan vi börjar kritisera Kina för sådana 996-metoder, bör vi granska våra egna. Startup-rundarna säljer in det som ”hardcore”, ”all in” eller ”grind culture”, men det är samma idé: mosa människor med arbetstid och hoppas att något briljant kommer ut på andraSammanhang: ...Och nu försöker vi omsätta denna idé i kod, eller snarare GPU:er. Vissa antar att om vi bara kan få stora språkmodeller (LLM) att arbeta motsvarande tusen timmar per vecka och generera kod i övermänsklig hastighet, kommer vi på magisk väg att få bättre programvara. ...
Omnämnda platser: Kina.
Nu är Google bäst på AI – men räcker det?
Googles första försök blev Bard som släpptes våren 2023 och som gjorde grova missar redan på lanseringen. Det var tydligt att jätten trots sina muskler hade lång väg att vandra för att komma ikapp Open AI och dess beskyddare Microsoft. Vandringen pågickalltsåSammanhang: ...Gemini 3 är nämligen inte tränad på samma Nvidia-GPU:er som alla andra använder utan på Googles egenutvecklade så kallade TPU-chipp. TPU:er är ASIC-chipp som har ett enda användningsområde (eller i det här fallet två, AI-träning och inferens), det vill säga mycket mer specialiserade än en GPU som används till lite allt möjligt. ...
Omnämnda platser: Youtube, Bard, Street View.




