Resultat 1 - 3 av 3
AI-modellen o3 ville inte stängas av – ändrade i koden
I ett uppmärksammat test som utfördes av Palisade Research vägrade AI-modellen o3 att acceptera ett kommando att stänga ner. För att undgå nedstängningen valde o3 helt enkelt att modifera koden på egen hand, rapporterar Bleeping Computer. Liknande resultatSammanhang: ...Liknande resultat kan inträffa med o4-Mini och Codex-Mini, två andra AI-modeller från Open AI. Däremot händer det väldigt sällan med Claude 3.7 Sonnet från Anthropic eller Gemini 2.5 Pro från Google. ...
Omnämnda personer: Palisade Research.
Anthropic: Lita inte på AI-modellers tankegång
AI-företaget Anthropic, känt för sin chattbot Claude, har publicerat en ny studie som visar att det i dagsläget inte går att lita på resoneringsmodellers publicerade tankegångar. Vissa resoneringsmodeller redovisar idag sina tankegångar, även kallade Chain-of-ThoughtSammanhang: ...Resultaten visade att modellerna ofta använde ledtrådarna för att besvara frågorna men sällan nämnde detta i sina resonemang. Till exempel nämnde Claude 3.7 Sonnet ledtråden i endast 25 procent av fallen, medan Deep Seek R1 gjorde det i 39 procent av fallen....
Omnämnda personer: Deep Seek.
Anthropics nya AI-modell kan “tänka” både snabbt och långsamt
Anthropic har nu släppt sin mest avancerade AI-modell hittills, som företaget själva beskriver som branschens första hybrida AI-resoneringsmodell, Claude 3.7 Sonnet. Enligt Anthropic är modellen designad för att både snabbt kunna svara på frågor i realtidSammanhang: ...Användare har också möjlighet att granska Claudes “tankeprocess”, förutom vissa element som tagits bort av säkerhetsskäl. Claude 3.7 Sonnet är tillgänglig för både användare och utvecklare, men vill du ha tillgång till dess resoneringsförmåga så krävs det att du betalar. ...
Omnämnda personer: Flash Thinking, Claude Code.