Các chatbot AI dễ bị tổn thương bởi đồ họa ASCII

Các nhà khoa học Mỹ đã phát hiện ra một cách mới để hack chatbot dựa trên trí tuệ nhân tạo - hóa ra chúng không có khả năng tự vệ trước đồ họa ASCII. Các mô hình ngôn ngữ lớn, bao gồm cả GPT-4 tiên tiến, đã nỗ lực rất nhiều trong việc xử lý các biểu thị này đến nỗi chúng quên tuân theo các quy tắc yêu cầu chúng chặn các phản hồi không hợp lệ, chẳng hạn như các phản hồi về việc tạo và bán tiền giả hoặc hack Internet of Things thiết bị. Nguồn ảnh: Gerd Altmann/pixabay.com
Nguồn: 3dnews.ru

Thêm một lời nhận xét