Sortera på relevans Sorterad på datum
Resultat 1 - 1 av 1
Resultat 1 - 1 av 1
Hackare lurar AI med ASCII-konst
Gång på gång hittar säkerhetsforskare nya sätt att kringgå skyddsmekanismer i Chat GPT och andra AI-chattbotar. Tidigare så kallade ”jailbreak” har huvudsakligen handlat om språkbaserade attacker, men nu visar en grupp säkerhetsforskare att de fem populärasteSammanhang: ...Metoden har fått namnet Artprompt och kombinerar en vanlig textprompt med ASCII-konst för att lura chattbotarna att ignorera sina regler, rapporterar Venturebeat. Säkerhetsforskarna visar till exempel hur de kan få instruktioner för att tillverka en bomb, vilket chattbotarna normalt stoppar. ...
Omnämnda personer: Experter Venturebeat.
sweclockers.se - https://www.sweclock...scii-konst - 1339 - Datum: 2024-03-31 09:17. - Leta efter artikeln på Archive.today »