Resultat 1 - 10 av 31
Ryskt propagandanätverk används för att lura AI-modeller
Rysk desinformation har letat sig in stora språkmodeller NewsGuard, en tjänst som försöker bedöma trovärdigheten för nyhetstjänster, har publicerat en undersökning där man uppger att ett ryskt propagandanätverk har lyckats luraSammanhang: ...NewsGuard har testat tio av världens största språkmodeller i sin undersökning; OpenAIs ChatGPT-4o, You.coms Smart Assistant, xAIs Grok, Inflections Pi, Mistrals le Chat, Microsofts Copilot, Meta AI, Anthropics Claude, Googles Gemini samt Perplexitys mix av LLM:er. L s vidare och kommentera: https://feber.se/samhalle/ryskt-propagandanatverk-anvands-for-att-lura-ai-modeller/477619/ L s mer om ryssland , pravda , propaganda , ai-modeller , språkmodeller , infiltration ...
Omnämnda platser: Ryssland, LLM:er, ryssland. Omnämnda personer: Googles Gemini, Microsofts Copilot, Inflections Pi.
Ordlista: Här är AI-begreppen du måste ha koll på
Du har säkert koll (eller låtsas i alla fall) men vi kan erkänna att en del av oss ibland blandar ihop alla begrepp och förkortningar som används inom AI-sfären. Så för att underlätta livet tog vi helt enkelt Chat GPT till hjälp för att förklara de 16 viktigasteSammanhang: ...Exempel inkluderar GPT-4, Claude, Palm 2 och Llama. LLM:er används i allt från textgenerering och chatbotar till kodskrivning och dataanalys. 10. Maskininlärning (Machine Learning, ML) En metod där AI-system tränas på stora datamängder för att hitta mönster och förbättra sin prestanda över tid. ...
Omnämnda platser: Djupinlärning. Omnämnda personer: Chat GPT, Stable Diffusion, Large Language.
Kommer slutet för Windows 10 att öka intresset för AI-pc?
– Oavsett om du vill ha det eller inte kommer du att få det sålt till dig. Ändå är eran med AI-datorer i sin linda. Den första omgången AI-datorer med neurala bearbetningsenheter (NPU) lanserades under andra halvåret 2024, utrustade med TOPS-chipp (biljonerSammanhang: ...OEM-tillverkare som har levererat eller förbereder AI-datorer för 2025 eller 2026 inkluderar Dell, Acer, Asus, HP, Lenovo, Samsung och Microsoft. De flesta AI-datorer kan köra LLM:er lokalt, men endast för inferens. Vissa leverantörer hävdar att deras AI-datorer kan användas för att träna modeller. ...
Omnämnda platser: Acer, NPU:er med Silicon-on-Chip, Apple. Omnämnda personer: Dell Pro AI.
Mängder av känslig företagsinformation skickas in i chattbotarna
”Säkerhetsrelaterad information, som utgör 6,88 procent av de känsliga uppgifterna, är särskilt oroande”, enligt rapporten. ”Exempel på detta är resultat från penetrationstester, nätverkskonfigurationer och incidentrapporter. Sådana uppgifter kan ge angripareSammanhang: ...Datamedvetna metoder Ciso:er bör samarbeta med företagsledare för att se till att anställda utbildas i hur de kan få samma resultat från LLM:er utan att använda skyddade data, säger Jeff Pollard, chefsanalytiker på Forrester. Att göra det kräver mer finess i prompterna, men det skyddar känslig information utan att späda ut effektiviteten i AI:s genererade svar....
Omnämnda personer: Jeff Pollard.
Molnet i all ära – företagens datacenter lever vidare
– Cio:er bör utvärdera om det publika molnet levererar värde, eftersom arbetsbelastningarnas behov förändras, regleringar kring arbetsbelastningar förändras, erbjudanden förändras, oavsett om det gäller pris eller funktionalitet. Så organisationer bör inteSammanhang: ...Cio:er arbetar med att ta reda på hur de ska få ut mesta möjliga av vad LLM:er kan erbjuda i det publika molnet, samtidigt som de behåller känsliga data i privata moln som de kontrollerar. ...
Omnämnda platser: Nutanix, McKinsey, Europa. Omnämnda personer: Dave McCarthy, Cloud Survey, IDC:s Worldwide Edge Spending.
Deepseek drog ner brallorna på Open AI
1. Träningen. Deepseeks AI-modeller är tränade på ett snillrikt sätt som gjort att kostnaden varit rejält mycket lägre än vad AI-branschen är van vid. Det handlar bland annat om förbättrad minneseffektivitet och att mänsklig feedback tagits bort i träningen,Sammanhang: ...(Just den aspekten har lyfts fram här och där men jag tycker den missar poängen lite eftersom ”svar på allmänna faktafrågor” är ett dåligt use case för hallucinerande LLM:er ändå. Det är inte så att detta spelar någon roll för ett företag som vill bygga en chattbot för sin kundtjänst, även om totalitär censur självklart inte är något annat än förkastligt.) ...
Omnämnda platser: Metas, Nvidias H800-chipp, USA. Omnämnda personer: Chat GPT, Yann LeCun.
Gör Chat GPT utvecklare dumma?
Stack Overflow hade varit på nedgång innan introduktionen av Chat GPT, GitHub Copilot och andra LLM:er, men användningen sjönk som en sten när utvecklare började använda AI-verktyg på allvar, vilket Gergely Orosz belyser. ”Stack Overflow har inte sett såfåSammanhang: ...Vi behöver ingen utbildning Faktum är att en stor risk just nu är hur beroende utvecklare blir av LLM:er för att tänka åt dem. Jag har hävdat att LLM:er hjälper seniora utvecklare mer än juniora utvecklare, just för att mer erfarna utvecklare vet när en LLM-driven kodningsassistent gör fel. ...
Omnämnda platser: Stack. Omnämnda personer: Jared Daines, Chat GPT, Mike Loukides.
AI-utvecklingen fortsätter att rita om chippmarknaden
Intel kommer att fortsätta att hitta en säker hamn för sina processorer i persondatorer, och beslutet att lägga ut tillverkningen på TSMC har hållit företaget konkurrenskraftigt gentemot konkurrenten AMD. Men Intel kommer sannolikt att kämpa för att hållaSammanhang: ...Och jag tror att AI-inferens, som en procentandel av företagen, kommer att vara lika stor om inte större än vad vi hittills har sett i datacentret, säger han. Från LLM:er till SLM:er och edge-enheter Företag och andra organisationer flyttar också fokus från enstaka AI-modeller till multimodal AI, eller LLM:er som kan bearbeta och integrera flera olika typer av data eller ”modaliteter”, som text, bilder, ljud, video och sinnesintryck. ...
Omnämnda platser: Copilot, S&P Global, USA. Omnämnda personer: Andrew Chang, Blackwell GPU:er, IDC:s Morales.
2025 ska bli AI-datorns år. Så vad gör egentligen en AI-dator?
AI-datorer kan också öka produktiviteten genom att hantera rutinuppgifter som schemaläggning och organisering av mejl, och genom att förbättra samarbetet med översättnings- och transkriptionsfunktioner i realtid, enligt Butler. Beroende på enhet kan AI-teknikSammanhang: ...Guayente Sanmartin, HPs chef för kommersiella system och skärmlösningar, säger att datorer med NPU:er som klarar mer än 40 tera operationer per sekund (TOPS) förändrar de dagliga arbetsflödena och att nya användningsområden dyker upp nästan varje dag. Verktyg som Microsoft Copilot och LLM:er som ChatGPT kan inte bara snabbt sammanfatta dokument, skriva utkast till mejl och schemalägga möten, de kan även generera åtgärdspunkter från mötesreferat – vilket ökar produktiviteten och frigör tid under arbetsdagen, säger hon...
Omnämnda platser: Tyskland, Frankrike, Lenovo. Omnämnda personer: Guayente Sanmartin.
Här är fördelarna med att välja öppen källkod för generativ AI
Det är ett problem, eftersom det krävs mycket testning och optimering för att bygga kommersiella produkter. – Med öppen källkod har du kontroll över var du använder den och när den försvinner, säger han. Slutligen är det priset. Open source är inte heltSammanhang: ...Hugging Face spårar för närvarande mer än 150 000 LLM:er bara för textgenerering, upp från 80 000 för sex månader sedan. För många att välja mellan? Chatbot Arena rankar mer än 160 toppmodeller – både proprietära och öppen källkod – och listar deras licenser. ...
Omnämnda platser: USA, Europa, Metas. Omnämnda personer: Sreekanth Menon, Carnegie Mellon University, Chat GPT.