Resultat 1 - 10 av 24
AI kommer att kräva fler utvecklare, inte färre
Snabbare kodning, större output Titta på Github Copilot. I en intern studie delades 95 ingenjörer in i två grupper: de med Github Copilot och de utan. Utvecklare som fick hjälp av Github Copilot slutförde en kodningsuppgift 55 procent snabbare, med en högreSammanhang: ...Dessa områden är fortfarande i grunden mänskliga och kräver kreativitet, kritiskt tänkande och strategisk överblick. LLM:er är utmärkta på väldefinierade, lokaliserade uppgifter baserade på mönster som de lärt sig från stora datamängder. ...
Omnämnda personer: Labor Statistics, Github Copilot.
Skapar vi för många AI-modeller?
Världen ser en explosion av LLM:er, det finns nu hundratals. De sträcker sig från proprietära giganter, som GPT-4 och Palm, till alternativ med öppen källkod, som Llama eller Falcon. Öppen källkod och företagsinvesteringar har drivit på denna boom och skapatSammanhang: ...Världen ser en explosion av LLM:er, det finns nu hundratals. De sträcker sig från proprietära giganter, som GPT-4 och Palm, till alternativ med öppen källkod, som Llama eller Falcon. ...
AI kan skapa kod men inte gemenskap
Det här är inte bara siffror; de är ett tydligt tecken på att utvecklare i allt högre grad tycker att LLM är ett snabbare och enklare alternativ till att kamma igenom tusentals Q&A-trådar. Det här skulle inte vara en så stor sak om det bara handlade om attSammanhang: ...Låt oss inte tro att Q&A-sajter är idylliska utopiska samhällen, och många uppskattar att LLM:er kan ge snabb, personlig hjälp utan den fientlighet eller gatekeeping som nykomlingar ofta möter på Stack Overflow. ...
Omnämnda platser: Stack.
Kommer slutet för Windows 10 att öka intresset för AI-pc?
– Oavsett om du vill ha det eller inte kommer du att få det sålt till dig. Ändå är eran med AI-datorer i sin linda. Den första omgången AI-datorer med neurala bearbetningsenheter (NPU) lanserades under andra halvåret 2024, utrustade med TOPS-chipp (biljonerSammanhang: ...OEM-tillverkare som har levererat eller förbereder AI-datorer för 2025 eller 2026 inkluderar Dell, Acer, Asus, HP, Lenovo, Samsung och Microsoft. De flesta AI-datorer kan köra LLM:er lokalt, men endast för inferens. Vissa leverantörer hävdar att deras AI-datorer kan användas för att träna modeller. ...
Omnämnda platser: Acer, NPU:er med Silicon-on-Chip, Apple. Omnämnda personer: Dell Pro AI.
Mängder av känslig företagsinformation skickas in i chattbotarna
”Säkerhetsrelaterad information, som utgör 6,88 procent av de känsliga uppgifterna, är särskilt oroande”, enligt rapporten. ”Exempel på detta är resultat från penetrationstester, nätverkskonfigurationer och incidentrapporter. Sådana uppgifter kan ge angripareSammanhang: ...Datamedvetna metoder Ciso:er bör samarbeta med företagsledare för att se till att anställda utbildas i hur de kan få samma resultat från LLM:er utan att använda skyddade data, säger Jeff Pollard, chefsanalytiker på Forrester. Att göra det kräver mer finess i prompterna, men det skyddar känslig information utan att späda ut effektiviteten i AI:s genererade svar....
Omnämnda personer: Jeff Pollard.
Molnet i all ära – företagens datacenter lever vidare
– Cio:er bör utvärdera om det publika molnet levererar värde, eftersom arbetsbelastningarnas behov förändras, regleringar kring arbetsbelastningar förändras, erbjudanden förändras, oavsett om det gäller pris eller funktionalitet. Så organisationer bör inteSammanhang: ...Cio:er arbetar med att ta reda på hur de ska få ut mesta möjliga av vad LLM:er kan erbjuda i det publika molnet, samtidigt som de behåller känsliga data i privata moln som de kontrollerar. ...
Omnämnda platser: Nutanix, McKinsey, Europa. Omnämnda personer: Dave McCarthy, Cloud Survey, IDC:s Worldwide Edge Spending.
Deepseek drog ner brallorna på Open AI
1. Träningen. Deepseeks AI-modeller är tränade på ett snillrikt sätt som gjort att kostnaden varit rejält mycket lägre än vad AI-branschen är van vid. Det handlar bland annat om förbättrad minneseffektivitet och att mänsklig feedback tagits bort i träningen,Sammanhang: ...(Just den aspekten har lyfts fram här och där men jag tycker den missar poängen lite eftersom ”svar på allmänna faktafrågor” är ett dåligt use case för hallucinerande LLM:er ändå. Det är inte så att detta spelar någon roll för ett företag som vill bygga en chattbot för sin kundtjänst, även om totalitär censur självklart inte är något annat än förkastligt.) ...
Omnämnda platser: Metas, Nvidias H800-chipp, USA. Omnämnda personer: Chat GPT, Yann LeCun.
Gör Chat GPT utvecklare dumma?
Stack Overflow hade varit på nedgång innan introduktionen av Chat GPT, GitHub Copilot och andra LLM:er, men användningen sjönk som en sten när utvecklare började använda AI-verktyg på allvar, vilket Gergely Orosz belyser. ”Stack Overflow har inte sett såfåSammanhang: ...Vi behöver ingen utbildning Faktum är att en stor risk just nu är hur beroende utvecklare blir av LLM:er för att tänka åt dem. Jag har hävdat att LLM:er hjälper seniora utvecklare mer än juniora utvecklare, just för att mer erfarna utvecklare vet när en LLM-driven kodningsassistent gör fel. ...
Omnämnda platser: Stack. Omnämnda personer: Jared Daines, Chat GPT, Mike Loukides.
AI-utvecklingen fortsätter att rita om chippmarknaden
Intel kommer att fortsätta att hitta en säker hamn för sina processorer i persondatorer, och beslutet att lägga ut tillverkningen på TSMC har hållit företaget konkurrenskraftigt gentemot konkurrenten AMD. Men Intel kommer sannolikt att kämpa för att hållaSammanhang: ...Och jag tror att AI-inferens, som en procentandel av företagen, kommer att vara lika stor om inte större än vad vi hittills har sett i datacentret, säger han. Från LLM:er till SLM:er och edge-enheter Företag och andra organisationer flyttar också fokus från enstaka AI-modeller till multimodal AI, eller LLM:er som kan bearbeta och integrera flera olika typer av data eller ”modaliteter”, som text, bilder, ljud, video och sinnesintryck. ...
Omnämnda platser: Copilot, S&P Global, USA. Omnämnda personer: Andrew Chang, Blackwell GPU:er, IDC:s Morales.
2025 ska bli AI-datorns år. Så vad gör egentligen en AI-dator?
AI-datorer kan också öka produktiviteten genom att hantera rutinuppgifter som schemaläggning och organisering av mejl, och genom att förbättra samarbetet med översättnings- och transkriptionsfunktioner i realtid, enligt Butler. Beroende på enhet kan AI-teknikSammanhang: ...Guayente Sanmartin, HPs chef för kommersiella system och skärmlösningar, säger att datorer med NPU:er som klarar mer än 40 tera operationer per sekund (TOPS) förändrar de dagliga arbetsflödena och att nya användningsområden dyker upp nästan varje dag. Verktyg som Microsoft Copilot och LLM:er som ChatGPT kan inte bara snabbt sammanfatta dokument, skriva utkast till mejl och schemalägga möten, de kan även generera åtgärdspunkter från mötesreferat – vilket ökar produktiviteten och frigör tid under arbetsdagen, säger hon...
Omnämnda platser: Tyskland, Frankrike, Lenovo. Omnämnda personer: Guayente Sanmartin.