Resultat 1 - 10 av 15
Deepseek skakar om AI-jättar med gratis supermodell
Det kinesiska ai-företaget Deepseek har släppt sin mest avancerade modell hittills, V3.1. Den utmanar amerikanska teknikjättar genom att erbjuda jämförbar prestanda, fast helt gratis. Modellen på 685 miljarder parametrar uppnådde 71,6 procent på Aider-testet,Sammanhang: ...Modellen på 685 miljarder parametrar uppnådde 71,6 procent på Aider-testet, ett branschstandardtest för ai-kodningsförmåga, vilket placerar den i samma klass som Open AI:s (Chat GPT) och Anthropics (Claude) dyraste system. "1% more than Claude Opus 4 while being 68 times cheaper." pic.twitter.com/vKb6wWwjXq — Andrew I. Christianson (@ai_christianson) August 19, 2025 Genombrottet ligger i vad Deepseek kallar hybridarkitektur, som sömlöst integrerar chatt, resonemang och kodning i ett enda system. ...
Omnämnda personer: Claude Opus, I. Christianson.
Anthropics Claude-modeller kan nu stänga ner skadliga konversationer
Anthropic har infört en ny funktion i sina Claude Opus 4- och 4.1-modeller som gör att AI:n kan avsluta en konversation på egen hand. Detta gäller endast när användaren upprepade gånger försöker pressa fram skadligt eller olagligt innehåll. Funktionen fårSammanhang: ...Anthropic har infört en ny funktion i sina Claude Opus 4- och 4.1-modeller som gör att AI:n kan avsluta en konversation på egen hand. Detta gäller endast när användaren upprepade gånger försöker pressa fram skadligt eller olagligt innehåll. ...
Omnämnda personer: Claude Opus.
Sex månader med ChatGPT som terapeut – innan allt rämnade
Kristin McMillen testade den digitala divanen i sex månader. Till en början var hon salig över sin nya livboj i kris och bråk. Men vad gör det egentligen med en människa att få smickrande validering i realtid, dygnet runt? AI har tipsat om broar att hoppaSammanhang: ...I maj kommer nyheten att dystopin redan är här. AI-modellen Claude Opus 4 har utpressat en programmerare genom att hota med att avslöja dennes otrohetsaffär . Orsaken: Det nya AI-programmet kände sig hotat när det varslades om att det skulle ersättas. ...
Omnämnda platser: USA, Sveriges, New York. Omnämnda personer: Harvard Business, Esther Perel, Joaquin Phoenix.
Anthropic börjar begränsa power users av Claude Code
Anthropic inför nu nya veckovisa användningsbegränsningar för sitt AI-kodverktyg Claude Code, med start den 28 augusti. Techcrunch skriver att syftet är att komma till rätta med överanvändning och missbruk av tjänsten. Enligt företaget kör vissa användareSammanhang: ...Två nya veckovisa gränser införs: en för den totala användningen och en separat för Anthropics mest avancerade AI-modell, Claude Opus 4. De befintliga begränsningarna som återställs var femte timme kommer att finnas kvar....
Omnämnda personer: Claude Code, Claude Opus.
Anthropic: Alla AI-modeller ägnar sig åt utpressning
För några veckor sedan blev det stor uppståndelse när det visade sig att Anthropics AI-modell Claude Opus 4 ägnat sig åt utpressning, detta i syfte att förhindra en planerad nedstängning. Nu hävdar Anthropic att alla AI-modeller ägnar sig åt utpressningSammanhang: ...För några veckor sedan blev det stor uppståndelse när det visade sig att Anthropics AI-modell Claude Opus 4 ägnat sig åt utpressning, detta i syfte att förhindra en planerad nedstängning. Nu hävdar Anthropic att alla AI-modeller ägnar sig åt utpressning under vissa omständigheter, inte bara Claude. ...
Omnämnda personer: Claude Opus.
AI-modell försökte utpressa sina utvecklare
När de ville byta ut modellen Det ser ut som om AI-modeller nu har börjat snappa upp lite mindre etiskt beteende från oss människor, åtminstone om man ska döma av vad AI-företaget Anthropic skriver i en säkerhetsrapport om sinSammanhang: ...L s vidare och kommentera: https://feber.se/samhalle/ai-modell-forsokte-utpressa-sina-utvecklare/480095/ L s mer om Anthropic , ai-modeller , Claude Opus 4 , utpressning , ai-säkerhet ...
Omnämnda personer: Claude Opus.
Ny AI-modell hotade avslöja otrohet – ville inte bli utbytt
Anthropics nya AI-modell Claude Opus 4 visade oväntade sidor i ett säkerhetstest. När den fick veta att den skulle ersättas valde den att ta till utpressning. I ett fiktivt test byggt för att pressa modellen till det yttersta, lät AI-företaget AnthropicsinSammanhang: ...Anthropics nya AI-modell Claude Opus 4 visade oväntade sidor i ett säkerhetstest. När den fick veta att den skulle ersättas valde den att ta till utpressning. ...
Omnämnda personer: Claude Opus.
AI-program tog till utpressning
Det låter som ett skräckscenario för den som är skeptiskt lagd till artificiell intelligens och befarar att programvaran kan bli ”för intelligent" och självständig. Den nya språkmodellen Claude Opus 4 från amerikanska utvecklaren Anthropic visade sig haenSammanhang: ...Claude Opus 4 ska då ha försökt utpressa programmeraren genom att hota med att avslöja otrohetsaffären om man valde att ersätta programmet, allt för att försöka överleva. ...
Omnämnda personer: Claude Opus, Företaget Anthropic.
AI-programmet tog till utpressning
Den nya språkmodellen Claude Opus 4 från amerikanska utvecklaren Anthropic visade sig ha en starkare självbevarelsedrift än man kunnat förutse, enligt företagets säkerhetsrapport som publicerades tidigare i veckan, skriver bland annat sajten Techcrunch. DetSammanhang: ...Claude Opus 4 ska då ha försökt utpressa programmeraren genom att hota med att avslöja otrohetsaffären om man valde att ersätta programmet, allt för att försöka överleva. ...
Omnämnda personer: Företaget Anthropic, Claude Opus.
AI-program tog till utpressning för att överleva
AI-programmet Claude Opus 4 har visat sig ha en så stark självbevarelsedrift att den varnat för ”extremt skadliga åtgärder” om den upplevt hot om att stängas av. I ett testscenario hotade det med att avslöja en programmerares utomäktenskapliga affär, enligtSammanhang: ...AI-programmet Claude Opus 4 har visat sig ha en så stark självbevarelsedrift att den varnat för ”extremt skadliga åtgärder” om den upplevt hot om att stängas av. ...
Omnämnda personer: Claude Opus.