Resultat 1 - 10 av 74
Deepseeks nya metod kan träna AI mer effektivt och billigare
Det kinesiska AI-bolaget Deepseek har presenterat en ny metod, Manifold-Constrained Hyper-Connections (mHC), som ska göra det möjligt att träna stora språkmodeller mer effektivt och till lägre kostnad, rapporterar South China Morning Post. Metoden är envidareutvecklingSammanhang: ...Enligt Deepseek ger mHC stabilare och mer skalbar träning utan att öka beräkningskostnaderna, tack vare särskilda optimeringar på infrastrukturnivå. Forskarna har testat tekniken på modeller med upp till 27 miljarder parametrar med positiva resultat....
Omnämnda personer: Manifold-Constrained Hyper-Connections.
Mistral lanserar OCR 3 – ska snabba på företags AI-omställning
Den franska AI-startupen Mistral lanserar nu Mistral OCR 3, en ny modell för optisk teckenigenkänning som ska hjälpa företag att digitalisera pappersbaserade dokument. Bolaget beskrivet det som ett avgörande steg för att företag ska kunna dra nytta av generativSammanhang: ...Tekniken är inbyggd i företagets plattform Mistral AI Studio och kan köras i moln, privat moln eller lokalt. Mistral säger att kunddata inte används för träning av modellerna. OCR 3 är tillgänglig nu via Mistrals API och Document AI-gränssnittet....
Därför är AI-agenter så bra på att koda
Allt detta handlar i slutändan om en enorm mängd vektormatematik – svindlande mängder av beräkningar. Lyckligtvis är GPU:er riktigt bra på vektormatematik, och det är därför AI-företag har en omättlig aptit på GPU:er och varför Nvidia är det mest värdefullaSammanhang: ...En grov beräkning visar att det finns cirka 100 miljarder rader öppen källkod tillgänglig för träning av AI. Det är mycket kod. En hel del kod. Och om du behöver en förklaring av hur kod fungerar finns det cirka 20 miljoner frågor och ännu fler svar på Stack Overflow som AI kan lära sig av. ...
Omnämnda platser: Github, Stack.
Cloudflare har blockerat 416 miljarder förfrågningar från AI-botar senaste halvåret
Cloudflares vd Matthew Prince säger i en ny intervju med Wired att företaget blockerat över 416 miljarder AI-botförfrågningar sedan den 1 juli 2025. Det hela är en del i företagets initiativ att låta kunder stoppa AI-botar från att skrapa deras innehåll utanSammanhang: ...Han kritiserar särskilt Google som har slagit ihop sina sök- och AI-crawlers. Det gör att den som blockerar AI-träning också försvinner ur Googles sökindex. Prince säger att Google missbrukar sin dominerande ställning här....
Omnämnda platser: Cloudflares.
Proton lanserar totalsträckskrypterad Excel-utmanare
Proton utökar nu sin integritetsfokuserade produktivitetssvit med Proton Sheets – ett totalsträckskrypterat kalkylprogram för säker hantering av känslig data, rapporterar Computerworld. Appen erbjuder stöd för realtidssamarbete, formler, datavisualiseringarSammanhang: ...Proton är noga med att påpeka att inga användardata används för AI-träning....
Omnämnda personer: Proton Sheets.
AWS låter företag anpassa AI-modeller under träning – för en miljon per år
Amazon Web Services lanserar nu Nova Forge, en ny AI-tjänst som låter företag anpassa Amazons språkmodeller redan under träningsfasen. Inte bara efteråt som vid vanlig finjustering. På så vis kan de kombinera sin egen data med Amazons kurerade träningsdataSammanhang: ...AWS låter företag anpassa AI-modeller under träning – för en miljon per år...
Nu är Google bäst på AI – men räcker det?
Googles första försök blev Bard som släpptes våren 2023 och som gjorde grova missar redan på lanseringen. Det var tydligt att jätten trots sina muskler hade lång väg att vandra för att komma ikapp Open AI och dess beskyddare Microsoft. Vandringen pågickalltsåSammanhang: ...TPU:er är ASIC-chipp som har ett enda användningsområde (eller i det här fallet två, AI-träning och inferens), det vill säga mycket mer specialiserade än en GPU som används till lite allt möjligt. ...
Omnämnda platser: Youtube, Bard, Street View.
Behöver du verkligen alla dessa GPU:er?
Ett dramatiskt prisfall Nya rapporter visar att priserna på molnbaserade, högt efterfrågade GPU:er har rasat. Till exempel sjönk kostnaden för en AWS H100 GPU Spot Instance med hela 88 procent i vissa regioner, från 105,20 dollar i början av 2024 till 12,16Sammanhang: ...All AI kräver inte avancerade GPU:er Idén att större och bättre GPU:er är avgörande för AI:s framgång har alltid varit felaktig. Visst, träning av stora modeller som GPT-4 eller Midjourney kräver mycket datorkraft, däribland högpresterande GPU:er eller TPU:er. ...
Omnämnda personer: Nvidias GB200.
AWS inviger gigantiskt datacenter för AI-träning
Drygt ett år efter byggstart har Amazon Web Services (AWS) nu invigt sitt gigantiska datacenter i närheten av Lake Michigan i den amerikanska delstaten Indiana. Datacentret som är en del av AWS Project Rainier är på 1200 engelska tunnland, vilket motsvararSammanhang: ...AWS inviger gigantiskt datacenter för AI-träning...
Omnämnda platser: Lake Michigan.
Reddit stämmer Perplexity för AI-skrapning
Under tisdagen valde Reddit att stämma Perplexity, Oxylabs UAB, AWM Proxy och Serp Api, fyra företag som påstås ägna sig åt så kallad AI-skrapning utan tillstånd. Enligt stämningsansökan som lämnats in till en federal domstol i New York har de fyra företagenSammanhang: ... – Skrapare kringgår tekniska skydd för att stjäla data som sedan säljs till klienter som vill ha material som kan användas för AI-träning. Reddit är ett utmärkt mål eftersom det är en av de största och mest dynamiska samlingarna av mänsklig konversation som någonsin skapats, säger Reddits juridiske chef Ben Lee i ett uttalande som citeras av nyhetsbyrån AP. ...
Omnämnda platser: New, York, Serp Api. Omnämnda personer: Oxylabs UAB, AWM Proxy, Ben Lee.




