Resultat 1 - 5 av 5
Anthropic: Alla AI-modeller ägnar sig åt utpressning
För några veckor sedan blev det stor uppståndelse när det visade sig att Anthropics AI-modell Claude Opus 4 ägnat sig åt utpressning, detta i syfte att förhindra en planerad nedstängning. Nu hävdar Anthropic att alla AI-modeller ägnar sig åt utpressningSammanhang: ...För några veckor sedan blev det stor uppståndelse när det visade sig att Anthropics AI-modell Claude Opus 4 ägnat sig åt utpressning, detta i syfte att förhindra en planerad nedstängning. ...
Omnämnda personer: Claude Opus.
How do you do, Claude? Brittiska staten börjar samarbeta med Anthropic
Sedan ett tag tillbaka används Anthropics AI-modell Claude flitigt i Europaparlamentet, däribland för att söka efter dokument och göra analyser. Nu rapporterar nyhetsbyrån Reuters att Claude kan komma att användas även i brittiska staten inom kort. StorbritanniensSammanhang: ...Sedan ett tag tillbaka används Anthropics AI-modell Claude flitigt i Europaparlamentet, däribland för att söka efter dokument och göra analyser. ...
Nya funktionen Citations ska göra Anthropics AI-verktyg mer korrekta
Anthropic har lanserat Citations, en ny funktion som syftar till att minimera antalet fel och hallucinationer i det populära AI-verktyget Claude. Som namnet antyder kommer Citations att kunna hänvisa till källan för ett visst påstående, och funktionenärSammanhang: ...Nya funktionen Citations ska göra Anthropics AI-verktyg mer korrekta...
Omnämnda personer: Anthropics API.
Anthropics AI kan nu använda datorn på egen hand
Under tisdagen presenterade Anthopic den nya AI-modellen Claude 3.5 Haiku, men det är en uppgradering av Claude 3.5 Sonnet som får de flesta av rubrikerna. Anledningen är att Claude 3.5 Sonnet nu kan förstå och interagera med valfritt program, något sominnebärSammanhang: ...Anthropics AI kan nu använda datorn på egen hand...
Omnämnda personer: Anthropics AI.
Forskare fick chattbotar att bryta mot reglerna genom upprepade frågor
Anthropics AI-forskare säger att de upptäckt en ny jailbreaking-metod för att få stora språkmodeller att berätta saker som de egentligen inte ska kunna berätta, rapporterar Techcrunch. Metoden kallas för “many-shot jailbreaking” och använder sig av det utökadeSammanhang: ...Anthropics AI-forskare säger att de upptäckt en ny jailbreaking-metod för att få stora språkmodeller att berätta saker som de egentligen inte ska kunna berätta, rapporterar Techcrunch. ...