Нейросети склонны к «галлюцинациям» – исследование IBM
Специалистам IBM удалось «загипнотизировать» известные языковые модели, такие как ChatGPT, заставив их сливать конфиденциальную информацию и давать вредные советы. Можно ли манипулировать чат-ботами на базе искусственного интеллекта, чтобы намеренно вводить пользователей в заблуждение или, что ещё хуже, давать им откровенно вредные советы? РЕКЛАМА Исследователи безопасности…