la sicurezza dell'IA non è una soluzione universale; è molto specifica per la cultura. ho trovato questo documento di linguasafe e mette in evidenza qualcosa di importante per chiunque stia costruendo IA per un pubblico globale. tradurre semplicemente un prompt dannoso dall'inglese può essere un efficace jailbreak. lo stesso prompt che è "sicuro" in inglese diventa "non sicuro" in altre lingue, quindi hai bisogno di dati reali e nativi per cogliere questi problemi.
7,45K