Sortera på relevans Sorterad på datum
Resultat 1 - 2 av 2
Resultat 1 - 2 av 2
Anthropic: Lita inte på AI-modellers tankegång
AI-företaget Anthropic, känt för sin chattbot Claude, har publicerat en ny studie som visar att det i dagsläget inte går att lita på resoneringsmodellers publicerade tankegångar. Vissa resoneringsmodeller redovisar idag sina tankegångar, även kallade Chain-of-ThoughtSammanhang: ...Resultaten visade att modellerna ofta använde ledtrådarna för att besvara frågorna men sällan nämnde detta i sina resonemang. Till exempel nämnde Claude 3.7 Sonnet ledtråden i endast 25 procent av fallen, medan Deep Seek R1 gjorde det i 39 procent av fallen....
Omnämnda personer: Deep Seek.
idg.se - https://computerswed...egang.html - 785 - Datum: 2025-04-04 16:15. - Leta efter artikeln på Archive.today »
Anthropics nya AI-modell kan “tänka” både snabbt och långsamt
Anthropic har nu släppt sin mest avancerade AI-modell hittills, som företaget själva beskriver som branschens första hybrida AI-resoneringsmodell, Claude 3.7 Sonnet. Enligt Anthropic är modellen designad för att både snabbt kunna svara på frågor i realtidSammanhang: ...Användare har också möjlighet att granska Claudes “tankeprocess”, förutom vissa element som tagits bort av säkerhetsskäl. Claude 3.7 Sonnet är tillgänglig för både användare och utvecklare, men vill du ha tillgång till dess resoneringsförmåga så krävs det att du betalar. ...
Omnämnda personer: Flash Thinking, Claude Code.
idg.se - https://computerswed...gsamt.html - 1090 - Datum: 2025-02-25 12:15. - Leta efter artikeln på Archive.today »