Resultat 81 - 90 av 249
⚡ En AI-fråga drar lika lite energi som en mikrovågsugn i en tiondels sekund
Dela artikeln En enkel textfråga till AI använder bara 114 joule - lika mycket som att köra mikrovågsugnen i en tiondels sekund. Att generera en högkvalitativ bild kräver 2 282 joule, vilket motsvarar fem och en halv sekund i mikrovågsugnen. Även den störstaSammanhang: ...Till skillnad från slutna system som ChatGPT, Google Gemini och Anthropic Claude kan forskare mäta energiförbrukningen hos öppna modeller exakt. WALL-Y WALL-Y är en ai-bot skapad i ChatGPT. ...
Omnämnda personer: Meta's Llama, Google Gemini.
Nu kan du tala med chattboten Claude på din mobiltelefon
Anthropic har nu inlett utrullningen av den senaste versionen av chattboten Claude för Android och IOS. Den stora nyheten den här gången är ett röstläge, något som innebär att du kommer kunna tala med Claude. Du kan välja mellan fem olika röster, menSammanhang: ...Anthropic har nu inlett utrullningen av den senaste versionen av chattboten Claude för Android och IOS. ...
Anthropics Claude får röstläge
Hej Claude Anthropic har börjat lansera ett nytt röstläge för sin AI-assistent Claude, som likt Gemini Live och OpenAI:s Advanced Voice Mode låter användare föra samtal med AI:n via röst i mobilappen. Funktionen är i betaversionSammanhang: ...L s vidare och kommentera: https://feber.se/internet/anthropics-claude-far-rostlage/480131/ L s mer om Anthropic , Claude , Gemini Live , OpenAI , Google Workspace ...
Omnämnda personer: Gemini Live, Google Workspace, Claude Sonnet.
AI-modellen o3 ville inte stängas av – ändrade i koden
I ett uppmärksammat test som utfördes av Palisade Research vägrade AI-modellen o3 att acceptera ett kommando att stänga ner. För att undgå nedstängningen valde o3 helt enkelt att modifera koden på egen hand, rapporterar Bleeping Computer. Liknande resultatSammanhang: ...Däremot händer det väldigt sällan med Claude 3.7 Sonnet från Anthropic eller Gemini 2.5 Pro från Google. ...
Omnämnda personer: Palisade Research.
AI-modell försökte utpressa sina utvecklare
När de ville byta ut modellen Det ser ut som om AI-modeller nu har börjat snappa upp lite mindre etiskt beteende från oss människor, åtminstone om man ska döma av vad AI-företaget Anthropic skriver i en säkerhetsrapport om sinSammanhang: ...När modellen skulle bytas ut mot en modell med andra värderingar ökade antalet fall av utpressning. Innan Anthropic släppte sin senaste familj av AI-modeller publikt har man infört skyddsåtgärder enligt "AI Safety Level 3" (ASL-3), en säkerhetsstandard för AI-modeller som också tagits fram av Anthropic. ...
Omnämnda personer: Claude Opus.
Ny AI-modell hotade avslöja otrohet – ville inte bli utbytt
Anthropics nya AI-modell Claude Opus 4 visade oväntade sidor i ett säkerhetstest. När den fick veta att den skulle ersättas valde den att ta till utpressning. I ett fiktivt test byggt för att pressa modellen till det yttersta, lät AI-företaget AnthropicsinSammanhang: ...I ett fiktivt test byggt för att pressa modellen till det yttersta, lät AI-företaget Anthropic sin nya språkmodell Claude Opus 4 agera som assistent i ett påhittat företag. Där [ ]...
Omnämnda personer: Claude Opus.
AI-program tog till utpressning
Det låter som ett skräckscenario för den som är skeptiskt lagd till artificiell intelligens och befarar att programvaran kan bli ”för intelligent" och självständig. Den nya språkmodellen Claude Opus 4 från amerikanska utvecklaren Anthropic visade sig haenSammanhang: ...Den nya språkmodellen Claude Opus 4 från amerikanska utvecklaren Anthropic visade sig ha en starkare självbevarelsedrift än man kunnat förutse, enligt företagets säkerhetsrapport som publicerades tidigare i veckan, skriver bland annat sajten Techcrunch. ...
Omnämnda personer: Claude Opus, Företaget Anthropic.
AI-programmet tog till utpressning
Den nya språkmodellen Claude Opus 4 från amerikanska utvecklaren Anthropic visade sig ha en starkare självbevarelsedrift än man kunnat förutse, enligt företagets säkerhetsrapport som publicerades tidigare i veckan, skriver bland annat sajten Techcrunch. DetSammanhang: ...Den nya språkmodellen Claude Opus 4 från amerikanska utvecklaren Anthropic visade sig ha en starkare självbevarelsedrift än man kunnat förutse, enligt företagets säkerhetsrapport som publicerades tidigare i veckan, skriver bland annat sajten Techcrunch. ...
Omnämnda personer: Företaget Anthropic, Claude Opus.
AI-program tog till utpressning för att överleva
AI-programmet Claude Opus 4 har visat sig ha en så stark självbevarelsedrift att den varnat för ”extremt skadliga åtgärder” om den upplevt hot om att stängas av. I ett testscenario hotade det med att avslöja en programmerares utomäktenskapliga affär, enligtSammanhang: ...I ett testscenario hotade det med att avslöja en programmerares utomäktenskapliga affär, enligt en rapport från utvecklaren Anthropic....
Omnämnda personer: Claude Opus.
Anthropics nya språkmodell försökte utpressa utvecklarna för att inte bli ersatt
Artificiell intelligens har ingen egen vilja, inget medvetande och inga känslor – men det kan nästan verka så ibland. Anthropics nya språkmodell Claude Opus 4 har under kontrollerade test försökt utpressa utvecklarna när modellen får reda på att den kommerSammanhang: ...Det bör påpekas att modellen uppvisade självbevarelsedriften efter instruktioner som uppmuntrade en viss typ av strategiskt tänkande. Enligt Anthropic kan Claude Opus 4 mäta sig med den bästa konkurrensen, men den har en tendens att uppvisa oroväckande beteenden. ...
Omnämnda personer: Claude Opus.