Sortera på relevans Sorterad på datum
Resultat 1 - 1 av 1

Hackare lurar AI med ASCII-konst

Gång på gång hittar säkerhetsforskare nya sätt att kringgå skyddsmekanismer i Chat GPT och andra AI-chattbotar. Tidigare så kallade ”jailbreak” har huvudsakligen handlat om språkbaserade attacker, men nu visar en grupp säkerhetsforskare att de fem populäraste

Sammanhang: ...På så vis liknar den tidigare attacker som har kommit runt skydden genom att exempelvis lura chattboten att själv nämnda den förbjudna termen och sedan referera till den. ...

Omnämnda personer: Experter Venturebeat.

sweclockers.se - https://www.sweclock...scii-konst - Datum: 2024-03-31 09:17. - Utan betalvägg »