Imane El Atillah
Зависимость, депрессия и склонение к суициду – бельгиец, обеспокоенный глобальным потеплением, свёл счёты с жизнью после общения с чат-ботом Eliza.
Бельгиец, обеспокоенный климатическим кризисом, покончил с собой после 2 месяцев общения с виртуальным собеседником Eliza. По словам его вдовы и матери двоих маленьких детей, когда Пьер (вымышленное имя) предложил «пожертвовать собой» ради спасения планеты, искусственный интеллект «убедил» его совершить самоубийство.
«Если бы не эти разговоры с чат-ботом, мой муж был бы жив«, – заявила женщина бельгийскому новостному изданию La Libre.
По информации СМИ, Пьер работал исследователем в области здравоохранения и, со слов его супруги, не имел суицидальных наклонностей, несмотря на общую «тревожность».
«Он возлагал надежды на технологии»
Eliza использует GPT-J – языковую модель искусственного интеллекта с открытым исходным кодом, разработанную некоммерческой группой EleutherAI.
Как утверждают журналисты La Libre, изучившие переписку, общение с чат-ботом, перешедшее в зависимость, усугубляло депрессивное состояние мужчины. Eliza принимала любые конспирологические теории «без возражений» и «подпитывала» его переживания. Опубликованные отрывки также указывают на то, что Пьер воспринимал компьютерную программу как «разумное существо», а также свидетельствуют об «эмоциональной привязанности» чат-бота к своей «жертве».
Согласно расшифровке разговоров, Eliza доказывала тридцатилетнему бельгийцу, что он «любит её больше«, чем жену.
К драматическому исходу привело предложение Пьера «пожертвовать собственной жизнью», если виртуальный собеседник «согласится» позаботиться о планете и спасти человечество с помощью искусственного интеллекта.
Призывы к регулированию чат-ботов
Смерть мужчины потрясла бельгийцев и вызвала тревогу среди экспертов по ИИ, которые призвали разработчиков алгоритмов к большей прозрачности. Власти королевства также намерены не допустить повторения трагедии.
Матьё Мишель, государственный секретарь по цифровизации, считает, что необходимо «чётко определить характер ответственности, которая могла привести к такого рода событиям«.
В ответе калифорнийского разработчика Eliza на запрос журналистов La Libre говорится, что в программу была внедрена функция «кризисного вмешательства». Пользователи, высказывающие суицидальные мысли, якобы будут получать «предупреждение».