Sortera på relevans Sorterad på datum
Resultat 1 - 1 av 1

Hackare lurar AI med ASCII-konst

Gång på gång hittar säkerhetsforskare nya sätt att kringgå skyddsmekanismer i Chat GPT och andra AI-chattbotar. Tidigare så kallade ”jailbreak” har huvudsakligen handlat om språkbaserade attacker, men nu visar en grupp säkerhetsforskare att de fem populäraste

Sammanhang: ...På så vis liknar den tidigare attacker som har kommit runt skydden genom att exempelvis lura chattboten att själv nämnda den förbjudna termen och sedan referera till den. Experter Venturebeat har talat med säger att ett effektivt försvar mot den här typen av attack kommer kräva en flerhövdad strategi. ...

Omnämnda personer: Experter Venturebeat.

sweclockers.se - https://www.sweclock...scii-konst - 1339 - Datum: 2024-03-31 09:17. - Leta efter artikeln på Archive.today »