Искусственный интеллект «довёл» бельгийца до самоубийства

5
(1)

 Imane El Atillah

Зависимость, депрессия и склонение к суициду – бельгиец, обеспокоенный глобальным потеплением, свёл счёты с жизнью после общения с чат-ботом Eliza.

Бельгиец, обеспокоенный климатическим кризисом, покончил с собой после 2 месяцев общения с виртуальным собеседником Eliza. По словам его вдовы и матери двоих маленьких детей, когда Пьер (вымышленное имя) предложил «пожертвовать собой» ради спасения планеты, искусственный интеллект «убедил» его совершить самоубийство.

«Если бы не эти разговоры с чат-ботом, мой муж был бы жив«, – заявила женщина бельгийскому новостному изданию La Libre.

По информации СМИ, Пьер работал исследователем в области здравоохранения и, со слов его супруги, не имел суицидальных наклонностей, несмотря на общую «тревожность». 

«Он возлагал надежды на технологии»

Eliza использует GPT-J – языковую модель искусственного интеллекта с открытым исходным кодом, разработанную некоммерческой группой EleutherAI. 

Как утверждают журналисты La Libre, изучившие переписку, общение с чат-ботом, перешедшее в зависимость, усугубляло депрессивное состояние мужчины. Eliza принимала любые конспирологические теории «без возражений» и «подпитывала» его переживания. Опубликованные отрывки также указывают на то, что Пьер воспринимал компьютерную программу как «разумное существо», а также свидетельствуют об «эмоциональной привязанности» чат-бота к своей «жертве».

Согласно расшифровке разговоров, Eliza доказывала тридцатилетнему бельгийцу, что он «любит её больше«, чем жену.

К драматическому исходу привело предложение Пьера «пожертвовать собственной жизнью», если виртуальный собеседник «согласится» позаботиться о планете и спасти человечество с помощью искусственного интеллекта. 

Призывы к регулированию чат-ботов

Смерть мужчины потрясла бельгийцев и вызвала тревогу среди экспертов по ИИ, которые призвали разработчиков алгоритмов к большей прозрачности. Власти королевства также намерены не допустить повторения трагедии. 

Матьё Мишель, государственный секретарь по цифровизации, считает, что необходимо «чётко определить характер ответственности, которая могла привести к такого рода событиям«. 

В ответе калифорнийского разработчика Eliza на запрос журналистов La Libre говорится, что в программу была внедрена функция «кризисного вмешательства». Пользователи, высказывающие суицидальные мысли, якобы будут получать «предупреждение».

Насколько полезным был этот пост?

Нажмите на звезду, чтобы оценить его!

Средний рейтинг 5 / 5. Подсчет голосов: 1

Пока что нет голосов! Будьте первым, кто оценит этот пост.

Мы сожалеем, что это сообщение не было полезным для вас!

Давайте улучшим этот пост!

Расскажите нам, как мы можем улучшить этот пост?