Resultat 11 - 20 av 126
Deepseek kommer till Windows Copilot+ PC
Äntligen? Microsoft meddelar nu att DeepSeek AI snart kommer att finnas tillgängligt på Copilot+ PC och Azure-plattformen. DeepSeek-R1-Distill-Qwen-1.5B-modellen, optimerad för Copilot+ PC med NPU, kommer snart till MicrosoftSammanhang: ...DeepSeek-R1 kommer även till Azure AI Foundry-plattformen, tillsammans med andra AI-modeller som GPT-4 och Meta-Llama 3. Microsoft försäkrar att DeepSeek R1 har genomgått säkerhetsutvärderingar, men oro kring DeepSeeks användning av OpenAI:s teknik och integritetsfrågor kvarstår. ...
Omnämnda platser: Windows.
DeepSeek kan ha använt OpenAI:s modeller för träning
Det tror i alla fall OpenAI OpenAI och deras partner Microsoft säger sig ha bevis för att DeepSeek använt OpenAI:s AI-modeller för att träna upp sina egna modeller. DeepSeek är ett kinesiskt AI-företag som det har snackats rejältSammanhang: ...DeepSeek är ett kinesiskt AI-företag som det har snackats rejält om sedan de presenterat några AI-modeller den senaste månaden, delvis för att DeepSeeks AI-modeller ser ut att kunna mäta sig med några av världens ledande AI-modeller, men framför allt för att modellerna utvecklats till en bråkdel av kostnaden jämfört med kostnaden för att utveckla till exempel OpenAI:s GPT-4-modell. Microsoft säger nu till nyhetsbyrån Bloomberg att man har sett att en stor mängd data tankats ner från OpenAI via utvecklarkonton på deras tjänst i slutet av 2024, utvecklarkonton som man tror är kopplade till DeepSeek på något sätt. ...
Omnämnda platser: OpenAI, Bloomberg.
Gör Chat GPT utvecklare dumma?
Stack Overflow hade varit på nedgång innan introduktionen av Chat GPT, GitHub Copilot och andra LLM:er, men användningen sjönk som en sten när utvecklare började använda AI-verktyg på allvar, vilket Gergely Orosz belyser. ”Stack Overflow har inte sett såfåSammanhang: ...(Många av dessa webbplatser har nu partnerskap med LLM och får betalt för att tillhandahålla träningsdata). Nixey frågar: ”Medan GPT-4 tränades på alla frågor som ställdes före 2021, vad kommer GPT-6 att träna på?” Det är naturligtvis möjligt att LLM:er kan börja lära sig direkt från sina användare i stället för att behöva träna på data på webben. ...
Omnämnda platser: Stack. Omnämnda personer: Jared Daines, Chat GPT, Mike Loukides.
Ny kinesisk app etta på nedladdningslistan
Det är det kinesiska AI-företaget DeepSeek som har släppt sin nya AI-modell DeepSeek R1, och den uppges ha jämförbar prestanda med OpenAI:s AI-modell o1 som släpptes förra månaden. DeepSeek fick redan förra året en del uppmärksamhet då man släppte en chatbotSammanhang: ...DeepSeek uppger till exempel att det "bara" kostade motsvarande cirka 6 miljoner dollar att träna upp LLM DeepSeek V3, något som kan jämföras med OpenAI:s GPT-4-modell som ska ha kostat över 100 miljoner dollar att träna upp. DeepSeek uppger även att man tränat upp V3 med bara 2000 kretsar från Nvidia. ...
Omnämnda platser: Anthropic.
Kinesiska DeepSeek släpper ny AI-modell
Som får en del att ifrågasätta andra AI-företags utvecklingskostnader Det kinesiska AI-företaget DeepSeek har nu släppt den nya AI-modellen DeepSeek R1 som uppges ha jämförbara prestanda med OpenAI:s o1-modell som släpptes förraSammanhang: ...DeepSeek uppger till exempel att det "bara" kostade motsvarande cirka 6 miljoner dollar att träna upp LLM DeepSeek V3, något som kan jämföras med OpenAI:s GPT-4-modell som ska ha kostat över 100 miljoner dollar att träna upp. DeepSeek uppger även att man tränat upp V3 med bara 2000 chip från Nvidia. ...
Omnämnda platser: kina, New York Times, Anthropic.
Dagens AI-modeller har usel koll på världshistorien
Enligt en ny rapport från det österrikiska forskningsinstitutet Complexity Science Hub (CSH) är dagens AI-modeller dåliga på att ge korrekt information om världshistorien. I ett experiment fick OpenAI:s GPT-4, Metas Llama, och Googles Gemini svara ja ellerSammanhang: ...Till exempel svarade GPT-4 ”ja” på frågan om antikens Egypten hade en stående armé, vilket tros bero på att AI-modellen valt att extrapolera data från andra riken som Persien. ...
Omnämnda platser: Metas Llama, Persien. Omnämnda personer: Googles Gemini.
Forskare kör chattbot på Pentium 2 och Windows 98
Det vi vanligen får höra är att AI baserad på så kallade stora språkmodeller kräver enorma datacenter för att tränas. Även att köra dem kräver normalt en dator med kraftfullt grafikkort eller en modern NPU. Men det är vanskligt att dra alla modeller överenSammanhang: ...Modellen i fråga bygger på Andrej Karpathys Llama2.c, och forskarna använde en modell med 260 000 parametrar, rapporterar Techspot. Det kan jämföras med till exempel GPT-4 som har över en biljon parametrar. Efter att ha tampats med att få den moderna koden att köra på det gamla operativsystemet tuffade modellen på med 39,31 token per sekund. ...
Omnämnda platser: Metas, Andrej.
Här är fördelarna med att välja öppen källkod för generativ AI
Det är ett problem, eftersom det krävs mycket testning och optimering för att bygga kommersiella produkter. – Med öppen källkod har du kontroll över var du använder den och när den försvinner, säger han. Slutligen är det priset. Open source är inte heltSammanhang: ...Enligt den prediktiva försäljningsplattformen Enlyft ligger Llama på andra plats efter GPT-4:s marknadsandel på 41 procent, med 16 procent. Mistral finns också med på listan, men med en marknadsandel på mindre än 5 procent. ...
Omnämnda platser: USA, Europa, Metas. Omnämnda personer: Sreekanth Menon, Carnegie Mellon University, Chat GPT.
Studie: Chat GPT bättre än läkare på att ställa diagnos
En ny mindre forskningsstudie visar på att Open AI:s chattbot Chat GPT-4 är bättre på diagnostisera sjukdomar än mänskliga läkare, rapporterar The New York Times. Totalt ska femtio läkare, varav 26 var specialistläkare och 24 ST-läkare, deltagit i studienSammanhang: ...Allt som allt ska Chat GPT-4 presterat bättre än 90 procent av samtliga läkare. Läkarna ska även presterat sämre än chattboten när de själva fick använda samma chattbot i sitt arbete. ...
Omnämnda platser: The New York Times. Omnämnda personer: Chat GPT.
Tänk om robotar lärde sig på samma sätt som chattbotar gör?
Precis som ännu mer avancerade LLM-baserade chattbottar kan ”hallucinera” och tenderar att förorenas med dåliga data, behöver HPT en mekanism för att filtrera bort dåliga data från dataseten. Ingen vill att en kraftfull industrirobot ska ”hallucinera” ochSammanhang: ...De vill också förbättra HPT så att den kan bearbeta omärkta data som GPT-4 och andra stora språkmodeller.” Slutmålet är en ”universell robothjärna” som kan laddas ner och användas utan ytterligare utbildning. ...