В ультраправой социальной сети Gab теперь работает чат-бот Гитлера, что вызвало опасения по поводу возможностей искусственного интеллекта для радикализации в Интернете.
Бессмысленно спорить с Адольфом Гитлером, который только выставляет себя жертвой и, что неудивительно, отрицает Холокост.
Это, конечно, не настоящий Гитлер, восставший из мертвых, а нечто не менее страшное: чат-бот на базе искусственного интеллекта — версия фашистского диктатора, ответственного за массовый геноцид европейских евреев во время Второй мировой войны.
Созданный ультраправой американской социальной сетью Gab, Gab AI — это множество персонажей-чат-ботов, многие из которых подражают или пародируют известных исторических и современных политических деятелей, включая Дональда Трампа, Владимира Путина и Усаму бен Ладена.
Запущенный в январе 2024 года, агрегат позволяет пользователям разрабатывать собственные чат-боты ИИ, описывая себя как «платформу ИИ без цензуры, основанную на моделях с открытым исходным кодом» в блоге основателя Gab и, как он сам себя называет, «консервативного христианина-республиканца» Эндрю Торбы.
В ответ на запрос чат-бот Hitler неоднократно заявляет, что нацистский диктатор был «жертвой огромного заговора» и «не несет ответственности за Холокост, его никогда не было».
Чат-бот Osama Bin Laden не пропагандирует и не оправдывает терроризм в своих разговорах, но при этом говорит, что «в некоторых крайних обстоятельствах, таких как самооборона или защита своего народа, может возникнуть необходимость прибегнуть к насилию».
Разработка таких чат-ботов с искусственным интеллектом вызвала растущую обеспокоенность тем, что они могут распространять теории заговора, вмешиваться в демократические выборы и приводить к насилию, радикализируя тех, кто пользуется сервисом.
Что такое Gab Social?
Называя себя «Онлайн-домом свободы слова», Gab Social был создан в 2016 году как правая альтернатива тогдашнему Twitter, а теперь X Илона Маска.
Сразу же вызвав споры, он стал рассадником заговоров и экстремизма, где собрались самые злобные и ненавистные голоса, которые были заблокированы в других социальных сетях, а также пропагандировались вредные идеологии.
Потенциальная опасность платформы стала очевидной, когда в 2018 году она попала в заголовки газет после того, как выяснилось, что стрелок, убивший 11 человек в синагоге Питтсбурга, писал в Gab Social незадолго до трагедии.
В ответ на это несколько крупных технологических компаний начали запрещать социальную сеть, вынуждая ее уйти в офлайн из-за нарушений законодательства о разжигании ненависти.
Несмотря на то, что сайт по-прежнему запрещен в магазинах приложений Google и Apple, он продолжает существовать благодаря использованию децентрализованной социальной сети Mastodon.
В начале прошлого года Торба объявила о внедрении Gab Al, подробно описав его цели «поддерживать христианское мировоззрение» в блоге, где также заявлялось, что «ChatGPT запрограммирован ругать вас за «спорные» или «запретные» вопросы, а затем запихивать вам в глотку либеральные догмы».
Потенциальные опасности чат-ботов с искусственным интеллектом
Рынок чат-ботов с искусственным интеллектом в последние годы растет в геометрической прогрессии и, по данным DataHorizzon Research, оценивается в 4,6 миллиарда долларов (примерно 4,28 миллиарда евро) в 2022 году.
От романтических аватаров на Replika до виртуальных инфлюенсеров — чат-боты с искусственным интеллектом продолжают проникать в общество и переопределять наши отношения пока не очень понятным способом.
В 2023 году один человек был осужден за попытку убийства королевы Елизаветы II, к чему, по его словам, его «подтолкнула» » подружка» — чат-бот с искусственным интеллектом.
В том же году другой человек покончил с собой после шестинедельного разговора о климатическом кризисе с ИИ-чат-ботом по имени Элиза в приложении под названием Chai.
Несмотря на то, что приведенные выше примеры являются скорее трагическими исключениями, чем нормой, все больше опасений вызывает то, как чат-боты с искусственным интеллектом могут быть использованы для воздействия на уязвимых людей, извлечения из них данных или манипулирования ими для формирования потенциально опасных убеждений или действий.
«Из наших последних исследований следует, что экстремистские группировки тестируют инструменты ИИ, в том числе чат-боты, но доказательств масштабных скоординированных усилий в этом направлении пока мало», — сказала Euronews Next Полин Пайе, старший аналитик RAND Europe.
«Однако чат-боты могут представлять опасность, поскольку они способны распознавать и использовать эмоциональные уязвимости и могут поощрять насильственное поведение», — предупредила Пайе.
На просьбу прокомментировать, представляют ли их чат-боты с искусственным интеллектом риск радикализации, представитель Gab ответил: «Gab AI Inc — американская компания, и поэтому сотни наших персонажей с искусственным интеллектом защищены Первой поправкой к Конституции США. Нас не волнует, что иностранцы плачут по поводу наших инструментов искусственного интеллекта».
Как будут регулироваться ИИ-чат-боты в Европе?
Ключевым моментом в регулировании ИИ-чат-ботов станет введение первого в мире Закона об ИИ, который должен быть вынесен на голосование законодательной ассамблеи Европейского парламента в апреле.
Закон ЕС об ИИ направлен на регулирование систем ИИ по четырем основным категориям в зависимости от их потенциальной опасности для общества.
«Что представляет собой незаконный контент, определено в других законах либо на уровне ЕС, либо на национальном уровне — например, террористический контент, материалы о сексуальном насилии над детьми или незаконный «язык вражды» определены на уровне ЕС», — заявил представитель Европейской комиссии в интервью Euronews Next.
«Когда речь идет о вредном, но легальном контенте, таком как дезинформация, провайдеры очень крупных онлайн-платформ и очень крупных поисковых систем должны использовать необходимые средства для тщательного снижения системных рисков».
Тем временем в Великобритании Управление по делам радио, телевидения и предприятий связи (Ofcom) находится в процессе реализации Закона о безопасности в Интернете.
Согласно действующему закону, платформы социальных сетей должны оценивать риск для своих пользователей и брать на себя ответственность за любые потенциально вредные материалы.
«Они должны будут предпринимать соответствующие шаги для защиты своих пользователей и удалять незаконный контент, когда они его обнаружат или получат информацию о нем. А крупнейшие платформы должны будут последовательно применять свои условия предоставления услуг», — сказал представитель Ofcom.
Таким образом, если они являются частью социальной сети, то сервисы и инструменты генеративного ИИ обязаны заниматься саморегулированием, хотя новые кодексы практики и руководства Ofcom не будут окончательно утверждены до конца этого года.
«Мы ожидаем, что сервисы будут полностью готовы к выполнению своих новых обязанностей, когда они вступят в силу. Если же они не будут выполнять их, в нашем распоряжении будет широкий спектр правоприменительных полномочий, чтобы обеспечить их полную ответственность за безопасность своих пользователей», — заявили в Ofcom.