Resultat 1 - 10 av 10
AI-modell försökte utpressa sina utvecklare
När de ville byta ut modellen Det ser ut som om AI-modeller nu har börjat snappa upp lite mindre etiskt beteende från oss människor, åtminstone om man ska döma av vad AI-företaget Anthropic skriver i en säkerhetsrapport om sinSammanhang: ...L s vidare och kommentera: https://feber.se/samhalle/ai-modell-forsokte-utpressa-sina-utvecklare/480095/ L s mer om Anthropic , ai-modeller , Claude Opus 4 , utpressning , ai-säkerhet ...
Omnämnda personer: Claude Opus.
Ny AI-modell hotade avslöja otrohet – ville inte bli utbytt
Anthropics nya AI-modell Claude Opus 4 visade oväntade sidor i ett säkerhetstest. När den fick veta att den skulle ersättas valde den att ta till utpressning. I ett fiktivt test byggt för att pressa modellen till det yttersta, lät AI-företaget AnthropicsinSammanhang: ...Anthropics nya AI-modell Claude Opus 4 visade oväntade sidor i ett säkerhetstest. När den fick veta att den skulle ersättas valde den att ta till utpressning. ...
Omnämnda personer: Claude Opus.
AI-program tog till utpressning
Det låter som ett skräckscenario för den som är skeptiskt lagd till artificiell intelligens och befarar att programvaran kan bli ”för intelligent" och självständig. Den nya språkmodellen Claude Opus 4 från amerikanska utvecklaren Anthropic visade sig haenSammanhang: ...Claude Opus 4 ska då ha försökt utpressa programmeraren genom att hota med att avslöja otrohetsaffären om man valde att ersätta programmet, allt för att försöka överleva. ...
Omnämnda personer: Claude Opus, Företaget Anthropic.
AI-programmet tog till utpressning
Den nya språkmodellen Claude Opus 4 från amerikanska utvecklaren Anthropic visade sig ha en starkare självbevarelsedrift än man kunnat förutse, enligt företagets säkerhetsrapport som publicerades tidigare i veckan, skriver bland annat sajten Techcrunch. DetSammanhang: ...Claude Opus 4 ska då ha försökt utpressa programmeraren genom att hota med att avslöja otrohetsaffären om man valde att ersätta programmet, allt för att försöka överleva. ...
Omnämnda personer: Företaget Anthropic, Claude Opus.
AI-program tog till utpressning för att överleva
AI-programmet Claude Opus 4 har visat sig ha en så stark självbevarelsedrift att den varnat för ”extremt skadliga åtgärder” om den upplevt hot om att stängas av. I ett testscenario hotade det med att avslöja en programmerares utomäktenskapliga affär, enligtSammanhang: ...AI-programmet Claude Opus 4 har visat sig ha en så stark självbevarelsedrift att den varnat för ”extremt skadliga åtgärder” om den upplevt hot om att stängas av. ...
Omnämnda personer: Claude Opus.
Anthropics nya språkmodell försökte utpressa utvecklarna för att inte bli ersatt
Artificiell intelligens har ingen egen vilja, inget medvetande och inga känslor – men det kan nästan verka så ibland. Anthropics nya språkmodell Claude Opus 4 har under kontrollerade test försökt utpressa utvecklarna när modellen får reda på att den kommerSammanhang: ...Innan Claude Opus 4 tar till utpressning gör modellen mer etiska försök att få finnas kvar, likt att mejla beslutsfattare inom företaget och vädja. ...
Omnämnda personer: Claude Opus.
Anthropics AI gick till attack när den tror den ska stängas av – hotade med utpressning
Det är skräcken för många i dessa AI-tider. Att datorerna ska ta över och skapa en apokalypsliknande tillvaro där människan blir ett slags slavar under övermakten. Det har så klart inte hänt (ännu) men nu har Anthropic testat sin nyligen lanserade AI-modellSammanhang: ...Det har så klart inte hänt (ännu) men nu har Anthropic testat sin nyligen lanserade AI-modell Claude Opus 4 för att se hur den agerar om den känner sig hotad. Innan Anthropics lanserade modellen testade man att låta den vara agent åt ett fiktivt företag, agenten instruerades att ta hänsyn till långsiktiga konsekvenser av dess agerande. ...
Omnämnda personer: Claude Opus, Anthropics AI.
Anthropic släpper Claude Sonnet 4 och Claude Opus 4
AI-företaget Anthropic har lanserat Claude Sonnet 4 och Claude Opus 4, två nya AI-modeller som ska utmana Open AI:s GPT och Googles Gemini på allvar. Enligt Anthropic är Claude Sonnet 4 och Claude Opus 4 bättre än sina föregångare vad gäller programmeringSammanhang: ...AI-företaget Anthropic har lanserat Claude Sonnet 4 och Claude Opus 4, två nya AI-modeller som ska utmana Open AI:s GPT och Googles Gemini på allvar. Enligt Anthropic är Claude Sonnet 4 och Claude Opus 4 bättre än sina föregångare vad gäller programmering och avancerade resonemang. ...
Omnämnda personer: Claude Sonnet, Googles Gemini, Claude Opus.
Elon Musks xAI släpper API-tjänst för Grok-modeller
Elon Musks satsning på generativ AI, xAI, har nu visat upp en API-tjänst för sina Grok-modeller som låter utvecklare integrera sina applikationer och agenter med xAI:s stora språkmodeller, rapporterar Infoworld. API-tjänsten är just nu tillgänglig som enoffentligSammanhang: ...API-tjänsten är just nu tillgänglig som en offentlig beta och liknar konkurrenterna Open AI och Anthropics motsvarigheter som låter utvecklare använda stora språkmodeller som GPT-4o, GPT-4o mini, Claude Opus, Sonnet och Haiku. Tjänsten ger åtkomst till xAI-konsolen där utvecklare kan få tillgång till xAI-modeller som Grok-2 och Grok-2 mini som kan användas för att generera och förstå text, kod och bilder. ...
Omnämnda platser: Sonnet. Omnämnda personer: Elon Musks, Claude Opus.
Anthropics senaste toppmodell finns nu på Amazon Bedrock
Amazon är också en direkt investerare i Anthropic. Efter att ha meddelat ett tillskott på 2,75 miljarder dollar till företaget i slutet av förra månaden uppgår dess totala investering i Anthropic till 4 miljarder dollar. Claude 3 Opus släpptes i mars, ochSammanhang: ...Claude 3 Opus släpptes i mars, och dess inkludering i Bedrock – en molnplattform utformad för att låta utvecklare arbeta med en rad olika generativa AI-modeller genom ett gemensamt API – fortsätter trenden med att Amazon tar med de senaste modellerna från Anthropic till sin plattform. Den senaste och mest robusta versionen av Claude, Opus, ger färre hallucinationer, bättre visuell bearbetning och färre felaktiga vägran att utföra ofarliga uppgifter, sade Anthropic då. ”Den uppvisar nästan mänskliga nivåer av förståelse och flyt i komplexa uppgifter, vilket leder till gränsen för allmän intelligens”, sa företaget. ...
Omnämnda platser: Anthropic, Bedrock, Google. Omnämnda personer: Andy Jassy.