Resultat 1 - 3 av 3
Alibaba släpper ny version av sin öppna AI-modell Qwen
Den kinesiska e-handelsjätten Alibaba har lanserat en ny version av sin öppna AI-modell, Qwen3-235B-A22B-2507. Modellen uppvisar förbättringar inom områden som resonemang, faktaexakthet, flerspråkighet, kodgenerering och hantering av långa kontextuella sammanhang.Sammanhang: ...Venture Beat rapporterar att den nu presterar bättre än konkurrenten Kimi-2 från kinesiska Moonshot. Den finns även i en optimerad FP8-version, vilket drastiskt minskar kraven på minne och beräkningskraft – från cirka 88 till 30 gigabyte GPU-minne – samtidigt som inferenshastigheten fördubblas. ...
Nvidia presenterar ny AI-chippen Rubin och Blackwell Ultra
Vera Rubin NVL144 kommer att erbjuda 3,6 exaflops FP4-prestanda och 1,2 exaflops FP8-prestanda. Systemet kommer att innehålla en ny processor kallad Vera, som efterträder de nuvarande Grace-processorerna och kommer att ha 88 egna kärnor och 176 trådar. DetSammanhang: ...Den kommer att erbjuda 15 exaflops FP4-inferensprestanda och 5 exaflops FP8-prestanda, och inkluderar det snabbare HBM4e-minnet, som överför data med 4,6PBps, och den nya NVLink 7-interconnect. ...
Omnämnda personer: Blackwell Ultra, Vera Rubin, Rubin GPU:er.
Deepseek skakar AI-jättarna – kommer chocken hålla i sig?
När organisationer fortsätter att anamma generativa AI-verktyg och plattformar och utforska hur de kan skapa effektivitet och öka arbetsproduktiviteten, kämpar de också med de höga kostnaderna och komplexiteten i tekniken. Deepseek förbättrade minnesbandbreddseffektivitetenSammanhang: ...Deepseek förbättrade minnesbandbreddseffektiviteten med två viktiga innovationer: genom att använda en minnesalgoritm på lägre nivå och genom att byta från FP32 (32-bit) till FP8 (8-bit) för träning av modellprecision. – De använder samma mängd minne för att lagra och flytta mer data, säger Dekate. ...