Resultat 41 - 50 av 123
Alibaba släpper AI-modell som spöar DeepSeek
Kina är på hugget nu DeepSeek verkar inte vara det enda kinesiska företaget som har tänkt att ge de amerikanska AI-företagen en match. Efter att DeepSeek fått enormt mycket uppmärksamhet den senaste veckan meddelar nu techjättenSammanhang: ...I ett inlägg på den kinesiska sociala medietjänsten WeChat skriver Alibaba att deras nya AI-modell även har bättre prestanda än OpenAI:s GPT-4o och Metas Llama-3.1-405B, några av världens mest kompetenta AI-modeller. Vill ni testa Qwen Chat, Alibabas motsvarighet till ChatGPT, med Qwen 2.5-Max så går det att göra det här . ...
Omnämnda platser: Kina, himmelska fridens torg, Metas Llama-3.1-405B. Omnämnda personer: Qwen Chat.
Deepseek skakar AI-jättarna – kommer chocken hålla i sig?
När organisationer fortsätter att anamma generativa AI-verktyg och plattformar och utforska hur de kan skapa effektivitet och öka arbetsproduktiviteten, kämpar de också med de höga kostnaderna och komplexiteten i tekniken. Deepseek förbättrade minnesbandbreddseffektivitetenSammanhang: ... – När allt väl har löst sig är nettoresultatet att Deepseek har utvecklat mycket specifika funktioner som är kvantitativa och det är något att lära av, precis som de gjorde från Llama 3, säger Dekate....
Meta ska bygga datacenter för upp till 65 miljarder dollar i år
Som ska driva deras AI-utveckling Meta grundare och vd Mark Zuckerberg har skrivit lite om företagets framtida AI-planer i ett inlägg på Meta X-konkurrent Threads. Där uppger Zuckerberg bland annat att han förväntar sig att MetaSammanhang: ...Där uppger Zuckerberg bland annat att han förväntar sig att Meta AI blir världens mest använda AI-assistent i år med en miljard användare och att Metas AI-modell Llama blir den främsta AI-modellen i världen. För att kunna uppnå de här målen planerar Meta att bygga nya datacenter för mellan 60-65 miljarder dollar, motsvarande cirka 657-712 miljarder kronor, i år. ...
Omnämnda platser: Meta, OpenAI, Metas. Omnämnda personer: Mark Zuckerberg, Meta AI.
Dagens AI-modeller har usel koll på världshistorien
Enligt en ny rapport från det österrikiska forskningsinstitutet Complexity Science Hub (CSH) är dagens AI-modeller dåliga på att ge korrekt information om världshistorien. I ett experiment fick OpenAI:s GPT-4, Metas Llama, och Googles Gemini svara ja ellerSammanhang: ...Enligt en ny rapport från det österrikiska forskningsinstitutet Complexity Science Hub (CSH) är dagens AI-modeller dåliga på att ge korrekt information om världshistorien. I ett experiment fick OpenAI:s GPT-4, Metas Llama, och Googles Gemini svara ja eller nej på historiska frågor och endast 46 procent av svaren var korrekta. ...
Omnämnda platser: Metas Llama, Persien. Omnämnda personer: Googles Gemini.
Författare: Meta visste att de tränade AI med piratkopierade böcker
En samling författare, som inkluderar kända namn som Ta-Nehisi Coates och komikern Sarah Silverman, påstår att Meta använde sig av piratkopierade upphovsrättsskyddade böcker för att träna sina AI-system, rapporterar Reuters. Det hela uppges ha godkänts avSammanhang: ...Författarna stämde Meta under 2023 och hävdade att teknikjätten utnyttjade deras böcker för att träna sin stora språkmodell Llama. Enligt nya juridiska handlingar som offentliggjorts så ska Meta medvetet använt sig av datasamlingen Libgen, som uppges innehålla miljoner piratade böcker, för sin AI-träning. ...
Omnämnda personer: Sarah Silverman, Mark Zuckerberg.
Microsofts AI-modell Phi-4 blir öppen källkod
För en månad sedan lanserades Phi-4, en ny liten AI-modell från Microsoft som i första hand riktar sig till utvecklare och forskare. Senaste nytt är att Microsoft nu bestämt sig för att göra källkoden till Phi-4 öppen, vilket innebär att alla som villkanSammanhang: ...Sedan tidigare har flera andra AI-modeller blivit öppen källkod, däribland Gemma från Google och Llama från Meta. ...
Omnämnda platser: Google, Meta.
DeepSeek är en kinesisk ChatGPT-konkurrent
Utvecklad till en bråkdel av kostnaden Det kinesiska företaget DeepSeek har släppt en chatbot med samma namn vilken baseras på företagets AI-modell DeepSeek V3. Utan att ha testat DeepSeek under någonSammanhang: ...Det kan jämföras med de hundratals miljoner dollar, ofta miljardtals dollar, som Google, OpenAI och Meta lagt på att träna upp sina Gemini-, GPT- och Llama-modeller. Enligt DeepSeek själva så ska DeepSeek V3 prestera likvärdigt eller bättre i benchmark-tester än flera av dagens mest avancerade AI-modeller, bland annat GPT4o och Llama 3.1. ...
Omnämnda personer: Deirdre Bosa.
Forskare kör chattbot på Pentium 2 och Windows 98
Det vi vanligen får höra är att AI baserad på så kallade stora språkmodeller kräver enorma datacenter för att tränas. Även att köra dem kräver normalt en dator med kraftfullt grafikkort eller en modern NPU. Men det är vanskligt att dra alla modeller överenSammanhang: ...Forskare på organisationen EXO Labs har nämligen lyckats köra en chattbot baserad på Metas öppna källkod-modell Llama-2 på en dator med Penium 2-processor på 350 MHz, 128 MB arbetsminne och Windows 98. Modellen i fråga bygger på Andrej Karpathys Llama2.c, och forskarna använde en modell med 260 000 parametrar, rapporterar Techspot. ...
Omnämnda platser: Metas, Andrej.
Här är fördelarna med att välja öppen källkod för generativ AI
Det är ett problem, eftersom det krävs mycket testning och optimering för att bygga kommersiella produkter. – Med öppen källkod har du kontroll över var du använder den och när den försvinner, säger han. Slutligen är det priset. Open source är inte heltSammanhang: ...Agus Huerta, chef för digital innovation på Globant, säger att han har sett bättre prestanda vid kodgenerering med Llama 3 än med Chat GPT. – Llama 3 har ett bevisat användningsområde för att ge en förståelse för programvara och hur den korrelerar med andra kodrader, säger han...
Omnämnda platser: USA, Europa, Metas. Omnämnda personer: Sreekanth Menon, Carnegie Mellon University, Chat GPT.
Harvard släpper enorm gratis datasamling för AI-träning
Harvard University tänker släppa vad som beskrivs som en högkvalitativ datasamling för AI-träning som ska bestå av nära på en miljon böcker som alla klassas som allmän egendom. Detta gör datasamlingen nära på fem gånger större än Book3-datasamlingen som använtsSammanhang: ...Detta gör datasamlingen nära på fem gånger större än Book3-datasamlingen som använts för att träna AI-modeller som Metas Llama. Wired skriver att datasamlingen tagits fram av universitetets Institutional Data Initiative som finansierats av Open AI och Microsoft och innehåller böcker skannade av Googles Books-projektet. ...
Omnämnda platser: Metas Llama. Omnämnda personer: Harvard University, Dante Alegeri, Charles Dickens.