AI 챗봇은 ASCII 그래픽에 취약했습니다.

Американские учёные обнаружили новый способ взлома чат-ботов на основе искусственного интеллекта — они оказались беззащитными перед ASCII-графикой. Большие языковые модели, включая передовую GPT-4, прикладывают столько усилий на обработку этих представлений, что «забывают» соблюдать правила, предписывающие им блокировать недопустимые ответы, например, об изготовлении и сбыте фальшивых денег или о взломе устройств интернета вещей. Источник изображения: Gerd Altmann / pixabay.com
출처 : 3dnews.ru

코멘트를 추가