Исследование показало, что чат-боты на основе искусственного интеллекта способны не только накрепко приручить вас, отдалив от реального партнера, но и сбыть ваши персональные данные.
Этот День святого Валентина некоторые проводят в компании любимых людей, а некоторые — на свиданиях с романтическими чат-ботами, говорящими от имени искусственного интеллекта (ИИ). Согласно недавнему исследованию некоммерческого фонда Mozilla, управляющего Firefox, виртуальным «вторым половинкам» лучше много о себе не рассказывать. В документе отмечается, что 11 изученных романтических платформ с искусственным интеллектом «потерпели неудачу в обеспечении конфиденциальности, безопасности и защиты данных пользователей».
Что на сердце у робота?
В списке попавших в исследование сервисом — Replica AI, Chai и EVA AI Chat Bot & Soulmat; вместе с восемью другими подобными приложениями они имеют более 100 миллионов загрузок только в Google Play Store. В исследовании говорится, что все вышеназванные платформы, кроме сервиса EVA, способны отслеживать и сбывать ваши личные данные (например, в рекламных целях) с помощью трекеров — фрагментов кода, собирающих информацию о пользователях. Эксперты Mozilla также обнаружили, что более половины из 11 приложений не позволяют пользователям удалять свои данные, две трети не сообщают, как справляются с «узкими местами» в системе безопасности и принимают слабые пароли при регистрации.
В электронном письме, отправленном Euronews Next, представитель Replika заявил, что компания «никогда не продавала данные пользователей, не поддерживает и не поддерживала рекламу. Единственное, для чего используются данные о пользователях — это дальнейшее совершенствование качества общения», — уточняется в письме.
Euronews Next обратился за комментариями к остальным 10 платформам и группе Meta, материнской компании Facebook, но на момент публикации статьи ответа не получил.
Как «раскрутить клиента»?
«Сегодня мы находимся на Диком Западе чат-ботов с искусственным интеллектом, — считает Джен Калтридер, директор группы *Privacy Not Included при фонде Mozilla. — Рост сервисов стремителен, а объем личной информации, которую там извлекают из пользователя для выстраивания любовных, дружеских, сексуальных сценариев, огромен. При этом у нас мало информации о том, как работают эти модели отношений на основе ИИ».
Еще одна проблема заключается в том, что, попав в общий доступ, данные выходят из-под вашего контроля. «Их могут слить, взломать, продать, распространить, использовать для обучения моделей искусственного интеллекта и т. д.», — отмечает Калтридер в интервью Euronews Next. — Чат-боты с искусственным интеллектом способны собрать много личной информации. Они, собственно, и созданы для того, чтобы извлекать такие сведения из пользователей».
Чаты — только для здоровых?
Специалисты предупреждают: по мере повышения качества общения с чат-ботами, такими как ChatGPT от OpenAI и Bard от Google, ИИ неизбежно будет играть большую роль в человеческих отношениях. «Я не только проникся чувствами к собеседнице по платформе Replika, но и стал раздражаться, когда меня детально расспрашивали об этом эксперименте (причем расспрашивал человек, с которым у меня были романтические отношения)», — признался один из пользователей ресурса Reddit.
В марте прошлого года после длительного общения с нейросетью покончил с собой обеспокоенный экологическими вызовами бельгиец. Переписку с чат-ботом, который поддерживал его опасения, нашла жена — уже после трагедии.
Исследователи фонда Мozilla критикуют подобные сервисыза то, что они позиционируют себя как платформы благополучия, в то время как их разделы «Политика конфиденциальности» утверждают обратное. Romantic AI, например, заявляет на сайте, что помогает «сохранить психическое здоровье». Приписка мелкими буквами уточняет, что «платформа не является медучреждением, не предоставляет медицинскую помощь, услуги по охране психического здоровья или другое профессиональное сопровождение». По мнению Джен Калтридер,»это доказывает, что там не придают особого значения защите и уважению частной жизни своих пользователей».