Sortera på relevans Sorterad på datum
Resultat 1 - 5 av 5

Alibaba släpper ny version av sin öppna AI-modell Qwen

Den kinesiska e-handelsjätten Alibaba har lanserat en ny version av sin öppna AI-modell, Qwen3-235B-A22B-2507. Modellen uppvisar förbättringar inom områden som resonemang, faktaexakthet, flerspråkighet, kodgenerering och hantering av långa kontextuella sammanhang.

Sammanhang: ...Venture Beat rapporterar att den nu presterar bättre än konkurrenten Kimi-2 från kinesiska Moonshot. Den finns även i en optimerad FP8-version, vilket drastiskt minskar kraven på minne och beräkningskraft – från cirka 88 till 30 gigabyte GPU-minne – samtidigt som inferenshastigheten fördubblas. ...

idg.se - https://computerswed...-qwen.html - Datum: 2025-07-24 07:15. - Utan betalvägg »

Nvidia presenterar ny AI-chippen Rubin och Blackwell Ultra

Vera Rubin NVL144 kommer att erbjuda 3,6 exaflops FP4-prestanda och 1,2 exaflops FP8-prestanda. Systemet kommer att innehålla en ny processor kallad Vera, som efterträder de nuvarande Grace-processorerna och kommer att ha 88 egna kärnor och 176 trådar. Det

Sammanhang: ...Den kommer att erbjuda 15 exaflops FP4-inferensprestanda och 5 exaflops FP8-prestanda, och inkluderar det snabbare HBM4e-minnet, som överför data med 4,6PBps, och den nya NVLink 7-interconnect. ...

Omnämnda personer: Blackwell Ultra, Vera Rubin, Rubin GPU:er.

idg.se - https://computerswed...-aren.html - Datum: 2025-03-19 09:15. - Utan betalvägg »

Deepseek skakar AI-jättarna – kommer chocken hålla i sig?

När organisationer fortsätter att anamma generativa AI-verktyg och plattformar och utforska hur de kan skapa effektivitet och öka arbetsproduktiviteten, kämpar de också med de höga kostnaderna och komplexiteten i tekniken. Deepseek förbättrade minnesbandbreddseffektiviteten

Sammanhang: ...Deepseek förbättrade minnesbandbreddseffektiviteten med två viktiga innovationer: genom att använda en minnesalgoritm på lägre nivå och genom att byta från FP32 (32-bit) till FP8 (8-bit) för träning av modellprecision. – De använder samma mängd minne för att lagra och flytta mer data, säger Dekate. ...

idg.se - https://computerswed...aende.html - Datum: 2025-01-28 13:15. - Utan betalvägg »

Nvidia avtäcker B200 "Blackwell" – tvådelad monsterkrets med 208 miljarder transistorer

Under gårdagen rivstartade Nvidia sin utvecklarkonferens GTC, där bolagets VD Jensen Huang tog tillfället i akt att avtäcka den senaste generationens arkitektur för beräkningskretsar – Blackwell. I fokus ligger den nya monsterkretsen B200, vilken mer än dubblerar

Sammanhang: ...Gällandes prestanda redovisar Nvidia siffror från GB200-lösningen och ställer denna mot sin motsvarighet i Hopper-familjen. Vid FP8-instruktioner presterar Blackwell 2,5 gånger bättre än Hopper med en teoretisk beräkningskraft på 20 PFLOPS. ...

Omnämnda platser: Ampere.

sweclockers.se - https://www.sweclock...ansistorer - Datum: 2024-03-19 12:17. - Utan betalvägg »

AMD släpper beräkningskretsarna Instinct MI300 – utmanar Nvidia om AI-kronan

Att efterfrågan på kretsar för AI-tillämpningar och maskininlärning har ökat explosionsartat det senaste året råder det inget tvivel om. Ett kvitto på detta är Nvidias senaste kvartalsrapport, vilken visade nya rekordsiffror i försäljning för bolagets datacenter-division,

Sammanhang: ...Enligt AMD:s egna siffror kan MI300X inte bara tävla med Nvidias H100-krets, utan även slå den på fingrarna vid flertalet scenarion. Vid exempelvis flyttalsberäkningar med FP8- och FP16-instruktioner syns ett prestandaövertag på 30 procent. Även prestandan med stora språkmodeller (LLM) likt Llama2 ska vara bättre med AMD:s krets, där övertaget ligger mellan 10 och 20 procent högre. ...

Omnämnda platser: AMD, FP8-, Nvidias. Omnämnda personer: Grace Hopper, Nvidias Grace Hopper.

sweclockers.se - https://www.sweclock...-ai-kronan - Datum: 2023-12-07 14:17. - Utan betalvägg »