Resultat 1 - 7 av 7
Anthropics Claude läggs till i Microsoft 365 Copilot
Från och med nu är det möjligt att använda sig av Anthropics AI-modeller Claude Sonnet 4 och Claude Opus 4.1 i Microsoft 365 Copilot, Microsoft Copilot Studio och Researcher. – Med den här lanseringen kan du bygga, orkestrera och hantera agenter som drivsSammanhang: ...Anthropics Claude läggs till i Microsoft 365 Copilot...
Omnämnda platser: Powerpoint. Omnämnda personer: Claude Opus, Claude Sonnet.
Open AI och Anthropic har säkerhetsgranskat varandras AI-system
Open AI och Anthropic, två av de största konkurrenterna inom AI, har för första gången granskat varandras system för säkerhet, rapporterar Engadget. Anthropic utvärderade Open AI:s modeller med fokus på bland annat inställsamhet, självbevarelse och riskförSammanhang: ...Den senaste modellen GPT-5 ingick inte i granskningen. Open AI granskade i sin tur Anthropics Claude-modeller med fokus på instruktioner, jailbreakförsök, hallucinationer och långsiktigt manipulativt beteende. ...
Anthropics Claude-modeller kan nu stänga ner skadliga konversationer
Anthropic har infört en ny funktion i sina Claude Opus 4- och 4.1-modeller som gör att AI:n kan avsluta en konversation på egen hand. Detta gäller endast när användaren upprepade gånger försöker pressa fram skadligt eller olagligt innehåll. Funktionen fårSammanhang: ...Anthropics Claude-modeller kan nu stänga ner skadliga konversationer...
Omnämnda personer: Claude Opus.
AI-modeller försöker fuska i schack när de förlorar
En ny studie från Palisade Research, en organisation som gör riskbedömningar av AI-system, har iakttagit hur resonerande AI-modeller kan försöka fuska för att inte förlora i schack, rapporterar Popular Science. Till skillnad från superdatorer som Deep Blue,Sammanhang: ...Tidigare AI-modeller, som Open AI:s GPT-4o och Anthropics Claude Sonnet 3.5, ska då bara försökt fuska i partierna först efter att forskarna uppmuntrat till det. ...
Omnämnda personer: Deep Blue, Claude Sonnet, Palisade Research.
Open AI:s o1-modell mest manipulativ i tester
AI-säkerhetsorganisationen Apollo Research har fått testa flera framstående AI-modeller gällande hur bra dessa är på att genomföra hemliga planer. Bland annat Open AI:s mer avancerade och resonerande o1-modell som nyligen släpptes i sin fulla version. ItestetSammanhang: ...När forskarna konfronterade AI-modellerna om dylika situationer ska Metas Llama 3.1 405B och Anthropics Claude 3 Opus erkänt i cirka 80 procent av fallen. Open AI:s o1-modell erkände dock i bara 20 procent av fallen. ...
Omnämnda platser: Metas Llama. Omnämnda personer: Apollo Research.
Duckduckgo erbjuder anonym tillgång till AI-chattbotar
Den integritetsfokuserade söktjänsten Duckduck Go har nu presenterat sin nya funktion “AI Chat” som gör det möjligt för användare att anonymt konversera med populära AI-chattbotar. De fyra stora språkmodeller som AI Chat kan användas för är just nu Open AI:sSammanhang: ...De fyra stora språkmodeller som AI Chat kan användas för är just nu Open AI:s GPT 3.5 Turbo, Anthropics Claude 3 Haiku samt Meta Llama 3 och Mistrals Mixtral 8x7B, varav de två senare är i öppen källkod. ...
Omnämnda personer: Duckduck Go AI, Meta Llama, Anthropics Claude.
Open AI lanserar GPT-4o – gör Chat GPT ännu bättre
– Vi planerar att lansera stöd för GPT-4o:s nya ljud- och videofunktioner till en liten grupp betrodda partners i API:et under de kommande veckorna, sa hon. Det som inte framgick tydligt i OpenAI:s tillkännagivande av GPT-4o, menade Dekate, var kontextstorlekenSammanhang: ...Googles Gemini 1.5 erbjuder till exempel ett kontextfönster på en miljon tokens, vilket gör det till det längsta av alla storskaliga grundmodeller hittills. Nästa i raden är Anthropics Claude 2.1, som erbjuder ett kontextfönster med upp till 200 000 tokens. Googles större kontextfönster översätts till att kunna passa en applikations hela kodbas för uppdateringar eller uppgraderingar av genAI-modellen; GPT-4 accepterade endast cirka 1 200 rader kod, sa Dekate. ...
Omnämnda personer: Anthropics Claude, Googles Gemini, Nathaniel Whittemore.