Resultat 1 - 9 av 9
Open AI och Anthropic låter amerikanska staten granska AI-modeller
AI-företagen Open AI och Anthropic har gått med på att låta U.S. AI Safety Institute att testa och utvärdera deras nya AI-modeller innan de släpps till allmänheten. Den nya amerikanska myndigheten inrättades i oktober 2023 för att göra säkerhetsbedömningarSammanhang: ...AI Safety Institute....
Studie: Förare blir lätt distraherade i automatiserade fordon
Enligt en ny rapport från Insurance Institute for Highway Safety (IIHS) blir förare mer distraherade i automatiserade fordon, något som gör att de till exempel kollar mobilen oftare eller äter en macka bakom ratten. Rapporten baseras på två månadslånga studierSammanhang: ...Enligt en ny rapport från Insurance Institute for Highway Safety (IIHS) blir förare mer distraherade i automatiserade fordon, något som gör att de till exempel kollar mobilen oftare eller äter en macka bakom ratten. ...
Omnämnda personer: for Highway Safety, Pilot Assist.
Storbritannien släpper verktyg för att testa AI-modellers säkerhet
AI Safety Institute, Storbritanniens nyligen etablerade säkerhetsmyndighet för AI, släpper nu en ny testplattform, Inspect, som kan användas för att utvärdera en AI-modells säkerhet. Inspect är ett mjukvarubibliotek som kan granska en modells specifika kapabiliteterSammanhang: ...AI Safety Institute, Storbritanniens nyligen etablerade säkerhetsmyndighet för AI, släpper nu en ny testplattform, Inspect, som kan användas för att utvärdera en AI-modells säkerhet. ...
Omnämnda platser: Storbritannien, Storbritanniens.
USA och Storbritannien inleder samarbete för AI-säkerhet
USA och Storbritannien meddelar att ländernas säkerhetsinstitut för AI framöver kommer att samarbeta sömlöst med varandra vad gäller forskning, utvärdering och vägledning för AI-säkerhet. Beslutet följer åtaganden som gjordes vid AI Safety Summit i novemberSammanhang: ...USA och Storbritannien meddelar att ländernas säkerhetsinstitut för AI framöver kommer att samarbeta sömlöst med varandra vad gäller forskning, utvärdering och vägledning för AI-säkerhet. Beslutet följer åtaganden som gjordes vid AI Safety Summit i november 2023. Samarbetet innebär att länderna kommer att harmonisera sina vetenskapliga tillvägagångssätt och arbeta nära varandra för att snabbt utveckla och revidera utvärderingar för AI-modeller, system och agenter. ...
Omnämnda platser: Storbritannien, USA.
Lätt att komma runt AI-chattbotars säkerhet enligt forskare
En ny granskning gjord av Storbritanniens nyligen etablerade AI-säkerhetsinstitut, AI Safety Institute, har testat fem stora språkmodeller och kommit fram till att samtliga är “högst sårbara” mot jailbreak-attacker som kan komma runt deras säkerhetsspärrar,Sammanhang: ...En ny granskning gjord av Storbritanniens nyligen etablerade AI-säkerhetsinstitut, AI Safety Institute, har testat fem stora språkmodeller och kommit fram till att samtliga är “högst sårbara” mot jailbreak-attacker som kan komma runt deras säkerhetsspärrar, rapporterar The Guardian. ...
Omnämnda platser: Storbritanniens.
16 techjättar skriver under löfte om säker utveckling av AI
I samband med konferensen AI Seoul Summit i Sydkorea så har 16 stora teknikföretag nu skrivit under avtalet “Frontier AI Safety Commitments” där de lovar att ägna sig åt säker utveckling av AI-teknik. Bland företagen syns stora namn från Nordamerika, Asien,Sammanhang: ...I samband med konferensen AI Seoul Summit i Sydkorea så har 16 stora teknikföretag nu skrivit under avtalet “Frontier AI Safety Commitments” där de lovar att ägna sig åt säker utveckling av AI-teknik. Bland företagen syns stora namn från Nordamerika, Asien, Europa och Mellanöstern. ...
Omnämnda platser: Asien, Meta, Naver. Omnämnda personer: Samsung Electronics.
Microsofts nya verktyg ska korrigera AI-hallucinationer
Microsoft har tagit fram ett nytt verktyg som är tänkt att korrigera AI-hallucinationer, det vill säga AI-genererade texter som inte baseras på fakta. Det nya verktyget kallas för Correction och kan användas med valfri AI-modell, däribland Llama från MetaSammanhang: ...Correction är en del av Microsofts Azure AI Content Safety och i nedanstående klipp kan du se hur det fungerar:...
Omnämnda platser: Microsofts, Meta.
Googles känga mot Microsoft – myndighetskritik blir säljargument
Google skriver i ett nytt blogginlägg att de uppmanar organisationer inom den offentliga sektorn att inte bara förlita sig på en enda teknikleverantör med tanke på säkerheten. Som bakgrund refererar Google till den senaste rapporten från amerikanska CyberSammanhang: ...Som bakgrund refererar Google till den senaste rapporten från amerikanska Cyber Safety Review Board (CSRB) som listar betydande säkerhetsbrister och systematiska svagheter hos en med Googles ord “långvarig leverantör”, vilket är Microsoft. ...
Efter skarpa kritiken mot Microsofts säkerhet – kommer företaget att lyssna?
I rapporten dras slutsatsen att företagets säkerhet är ”otillräcklig och kräver en översyn”. Det finns en lång historia av utländska regeringar som utnyttjar Microsofts säkerhetshål för att hacka högt uppsatta regeringstjänstemän och privata företag. (IjanuariSammanhang: ...Vad Microsoft gjorde för fel Rapporten från DHS Cyber Safety Review Board beskriver det kinesiska hacket och Microsofts svar i detalj och avslöjar vad Washington Post kallar Microsofts ”slarviga cybersäkerhetsrutiner, slappa företagskultur och en avsiktlig brist på transparens”. ...
Omnämnda platser: Microsofts. Omnämnda personer: Enterprise Exchange, Washington Post, Outlook Web.