I chatbot AI erano vulnerabili alla grafica ASCII

Gli scienziati americani hanno scoperto un nuovo modo per hackerare i chatbot basati sull'intelligenza artificiale: si sono rivelati indifesi contro la grafica ASCII. I grandi modelli linguistici, incluso l’innovativo GPT-4, mettono così tanto impegno nell’elaborazione di queste rappresentazioni che dimenticano di seguire le regole che dicono loro di bloccare le risposte non valide, come quelle sulla creazione e vendita di denaro contraffatto o sull’hacking dell’Internet of Things dispositivi. Fonte immagine: Gerd Altmann / pixabay.com
Fonte: 3dnews.ru

Aggiungi un commento