Resultat 1 - 10 av 34
AI kommer att kräva fler utvecklare, inte färre
Snabbare kodning, större output Titta på Github Copilot. I en intern studie delades 95 ingenjörer in i två grupper: de med Github Copilot och de utan. Utvecklare som fick hjälp av Github Copilot slutförde en kodningsuppgift 55 procent snabbare, med en högreSammanhang: ...Dessa områden är fortfarande i grunden mänskliga och kräver kreativitet, kritiskt tänkande och strategisk överblick. LLM:er är utmärkta på väldefinierade, lokaliserade uppgifter baserade på mönster som de lärt sig från stora datamängder. ...
Omnämnda personer: Labor Statistics, Github Copilot.
Skapar vi för många AI-modeller?
Världen ser en explosion av LLM:er, det finns nu hundratals. De sträcker sig från proprietära giganter, som GPT-4 och Palm, till alternativ med öppen källkod, som Llama eller Falcon. Öppen källkod och företagsinvesteringar har drivit på denna boom och skapatSammanhang: ...Världen ser en explosion av LLM:er, det finns nu hundratals. De sträcker sig från proprietära giganter, som GPT-4 och Palm, till alternativ med öppen källkod, som Llama eller Falcon. ...
AI kan skapa kod men inte gemenskap
Det här är inte bara siffror; de är ett tydligt tecken på att utvecklare i allt högre grad tycker att LLM är ett snabbare och enklare alternativ till att kamma igenom tusentals Q&A-trådar. Det här skulle inte vara en så stor sak om det bara handlade om attSammanhang: ...Låt oss inte tro att Q&A-sajter är idylliska utopiska samhällen, och många uppskattar att LLM:er kan ge snabb, personlig hjälp utan den fientlighet eller gatekeeping som nykomlingar ofta möter på Stack Overflow. ...
Omnämnda platser: Stack.
Ryskt propagandanätverk används för att lura AI-modeller
Rysk desinformation har letat sig in stora språkmodeller NewsGuard, en tjänst som försöker bedöma trovärdigheten för nyhetstjänster, har publicerat en undersökning där man uppger att ett ryskt propagandanätverk har lyckats luraSammanhang: ...NewsGuard har testat tio av världens största språkmodeller i sin undersökning; OpenAIs ChatGPT-4o, You.coms Smart Assistant, xAIs Grok, Inflections Pi, Mistrals le Chat, Microsofts Copilot, Meta AI, Anthropics Claude, Googles Gemini samt Perplexitys mix av LLM:er. L s vidare och kommentera: https://feber.se/samhalle/ryskt-propagandanatverk-anvands-for-att-lura-ai-modeller/477619/ L s mer om ryssland , pravda , propaganda , ai-modeller , språkmodeller , infiltration ...
Omnämnda platser: Ryssland, LLM:er, ryssland. Omnämnda personer: Googles Gemini, Microsofts Copilot, Inflections Pi.
Ordlista: Här är AI-begreppen du måste ha koll på
Du har säkert koll (eller låtsas i alla fall) men vi kan erkänna att en del av oss ibland blandar ihop alla begrepp och förkortningar som används inom AI-sfären. Så för att underlätta livet tog vi helt enkelt Chat GPT till hjälp för att förklara de 16 viktigasteSammanhang: ...Exempel inkluderar GPT-4, Claude, Palm 2 och Llama. LLM:er används i allt från textgenerering och chatbotar till kodskrivning och dataanalys. 10. Maskininlärning (Machine Learning, ML) En metod där AI-system tränas på stora datamängder för att hitta mönster och förbättra sin prestanda över tid. ...
Omnämnda platser: Djupinlärning. Omnämnda personer: Chat GPT, Stable Diffusion, Large Language.
Kommer slutet för Windows 10 att öka intresset för AI-pc?
– Oavsett om du vill ha det eller inte kommer du att få det sålt till dig. Ändå är eran med AI-datorer i sin linda. Den första omgången AI-datorer med neurala bearbetningsenheter (NPU) lanserades under andra halvåret 2024, utrustade med TOPS-chipp (biljonerSammanhang: ...OEM-tillverkare som har levererat eller förbereder AI-datorer för 2025 eller 2026 inkluderar Dell, Acer, Asus, HP, Lenovo, Samsung och Microsoft. De flesta AI-datorer kan köra LLM:er lokalt, men endast för inferens. Vissa leverantörer hävdar att deras AI-datorer kan användas för att träna modeller. ...
Omnämnda platser: Acer, NPU:er med Silicon-on-Chip, Apple. Omnämnda personer: Dell Pro AI.
Mängder av känslig företagsinformation skickas in i chattbotarna
”Säkerhetsrelaterad information, som utgör 6,88 procent av de känsliga uppgifterna, är särskilt oroande”, enligt rapporten. ”Exempel på detta är resultat från penetrationstester, nätverkskonfigurationer och incidentrapporter. Sådana uppgifter kan ge angripareSammanhang: ...Datamedvetna metoder Ciso:er bör samarbeta med företagsledare för att se till att anställda utbildas i hur de kan få samma resultat från LLM:er utan att använda skyddade data, säger Jeff Pollard, chefsanalytiker på Forrester. Att göra det kräver mer finess i prompterna, men det skyddar känslig information utan att späda ut effektiviteten i AI:s genererade svar....
Omnämnda personer: Jeff Pollard.
Molnet i all ära – företagens datacenter lever vidare
– Cio:er bör utvärdera om det publika molnet levererar värde, eftersom arbetsbelastningarnas behov förändras, regleringar kring arbetsbelastningar förändras, erbjudanden förändras, oavsett om det gäller pris eller funktionalitet. Så organisationer bör inteSammanhang: ...Cio:er arbetar med att ta reda på hur de ska få ut mesta möjliga av vad LLM:er kan erbjuda i det publika molnet, samtidigt som de behåller känsliga data i privata moln som de kontrollerar. ...
Omnämnda platser: Nutanix, McKinsey, Europa. Omnämnda personer: Dave McCarthy, Cloud Survey, IDC:s Worldwide Edge Spending.
Deepseek drog ner brallorna på Open AI
1. Träningen. Deepseeks AI-modeller är tränade på ett snillrikt sätt som gjort att kostnaden varit rejält mycket lägre än vad AI-branschen är van vid. Det handlar bland annat om förbättrad minneseffektivitet och att mänsklig feedback tagits bort i träningen,Sammanhang: ...(Just den aspekten har lyfts fram här och där men jag tycker den missar poängen lite eftersom ”svar på allmänna faktafrågor” är ett dåligt use case för hallucinerande LLM:er ändå. Det är inte så att detta spelar någon roll för ett företag som vill bygga en chattbot för sin kundtjänst, även om totalitär censur självklart inte är något annat än förkastligt.) ...
Omnämnda platser: Metas, Nvidias H800-chipp, USA. Omnämnda personer: Chat GPT, Yann LeCun.
Gör Chat GPT utvecklare dumma?
Stack Overflow hade varit på nedgång innan introduktionen av Chat GPT, GitHub Copilot och andra LLM:er, men användningen sjönk som en sten när utvecklare började använda AI-verktyg på allvar, vilket Gergely Orosz belyser. ”Stack Overflow har inte sett såfåSammanhang: ...Vi behöver ingen utbildning Faktum är att en stor risk just nu är hur beroende utvecklare blir av LLM:er för att tänka åt dem. Jag har hävdat att LLM:er hjälper seniora utvecklare mer än juniora utvecklare, just för att mer erfarna utvecklare vet när en LLM-driven kodningsassistent gör fel. ...
Omnämnda platser: Stack. Omnämnda personer: Jared Daines, Chat GPT, Mike Loukides.