Полгода назад технологические лидеры подписали открытое письмо с призывом приостановить эксперименты с искусственным интеллектом, но были ли услышаны их предупреждения?
Представляет ли искусственный интеллект (ИИ) экзистенциальную опасность для человечества? Институт будущего жизни (Future of Life Institute, FLI) считает, что да. Полгода назад он опубликовал открытое письмо с призывом «немедленно остановить» крупные эксперименты с искусственным интеллектом.
Письмо появилось на фоне всплеска общественного интереса к генеративному ИИ после того, как приложения ChatGPT и Midjourney продемонстрировали, как технологии всё ближе подбираются к воспроизведению человеческих способностей в области письма и искусства.
Среди подписавших письмо — генеральный директор X, Tesla и SpaceX Илон Маск, соучредитель Apple Стив Возняк и писатель Юваль Ной Харари. Они предложили таким компаниям, как OpenAI от ChatGPT и Google, подумать о «серьезных рисках для общества и человечества», которые могут создавать их технологии.
Крупные игроки не нажали на «паузу». Вместо этого в гонку генеративного ИИ включились новые компании, создающие собственные большие языковые модели (LLM): Meta выпустила Llama 2, а Anthropic продемонстрировала конкурента ChatGPT, Claude 2.
Прислушались ли технологические гиганты к предупреждениям или нет, письмо FLI всё же стало своего рода вехой.
Директор института по политике Марк Бракель говорит, что они не ожидали такого отклика на письмо: ни широкого освещения в прессе, ни откликов правительств. Письмо цитировалось на слушаниях в Сенате США, а Европарламент дал на него официальный ответ.
Бракель рассказал Euronews Next, что предстоящий глобальный саммит по безопасности ИИ в Блетчли-Парке (Великобритания) станет хорошей возможностью для правительств предпринять шаги там, где компании отказываются нажать на тормоза.
По его словам, вскоре генеративный ИИ может превратиться в агентный ИИ — тот, который сможет принимать решения и действовать автономно.
«Я думаю, что тенденция такова. Мы видим, что OpenAI использовал практически весь текстовый Интернет. А теперь в качестве альтернативных источников данных используются видео и подкасты, в том числе Spotify», — говорит он.
Катастрофа близка?
Бракель отмечает, что FLI был основан в 2014 году и с тех пор проводил работу по трем основным направлениям цивилизационных рисков: ИИ, биотехнологии и ядерное оружие.
На сайте организации размещен яркий видеоролик, представляющий собой вымышленный рассказ о глобальной катастрофе Al в 2032 году. На фоне напряженности в отношениях между Тайванем и Китаем, когда военные полагаются на искусственный интеллект в принятии решений, это приводит к тотальной ядерной войне, и видео заканчивается тем, что на планете происходит ядерный взрыв.
Бракель считает, что мы приближаемся к подобному сценарию.
«Интеграция ИИ в военное командование и управление всё еще прогрессирует, особенно в крупных державах. Однако я также вижу большее стремление государств к регулированию, особенно когда речь идет об автономии в системах обычных вооружений», — сказал он.
По его словам, следующий год также выглядит многообещающим в плане регулирования автономности таких систем, как беспилотники, подводные лодки и танки.
«Я надеюсь, что это также позволит ведущим державам достичь договоренностей во избежание аварий в системах управления ядерными силами, а они на один уровень чувствительнее, чем обычные вооружения».
Регулирование на подходе
Хотя крупные компании, занимающиеся разработкой искусственного интеллекта, не останавливают эксперименты, их руководители открыто признают, что искусственный интеллект и автоматизация представляют собой серьезную опасность для человечества.
Генеральный директор OpenAI Сэм Альтман в начале этого года призвал американских политиков ввести государственное регулирование ИИ, заявив, что он «больше всего опасается, что мы, технологическая индустрия, нанесем значительный вред миру». Это может произойти «множеством различных способов», добавил он. Он призвал создать американское или глобальное агентство, которое будет лицензировать наиболее мощные системы ИИ.
Однако Европа может оказаться лидером в области регулирования ИИ, поскольку в Евросоюзе уже разрабатывается знаковый закон об ИИ.
Окончательные детали пока еще прорабатывают институты союза, но Европарламент подавляющим большинством голосов поддержал закон — 499 голосов «за», 28 «против» и 93 «воздержались».
Согласно закону, системы искусственного интеллекта будут распределяться по различным уровням в зависимости от степени риска: наиболее рискованные типы будут запрещены, а системы с ограниченным риском потребуют определенного уровня прозрачности и надзора.
«В целом мы довольны этим законом, — говорит Бракель. — Одна вещь, которую мы отстаивали с самого начала, когда закон был впервые предложен Еврокомиссией, заключается в том, что он должен регулировать системы на основе GPT. В то время речь шла о GPT3, а не о GPT4, но принцип остался прежним, и мы столкнулись с большим количеством лоббистов из крупных технологических компаний, выступающих против этого».
«В США и в ЕС бытует мнение, что только пользователи систем ИИ и те, кто их внедряет, знают, в каком контексте они применяются».
Он приводит пример больницы, использующей чат-бота для общения с пациентами. «Вы просто купите чатбота у OpenAI, вы не собираетесь создавать его самостоятельно. И если потом произойдет ошибка, за которую вы будете нести ответственность, потому что вы дали медицинскую консультацию, которую не должны были давать, то, очевидно, вам нужно понимать, что за продукт вы купили. И часть этой ответственности действительно должна быть разделена».
Пока Европа ожидает окончательной формулировки закона ЕС об ИИ, глобальный саммит по безопасности ИИ, который состоится 1 ноября, должен стать следующим событием, дающим некоторое представление о том, как лидеры разных стран мира будут подходить к регулированию ИИ в ближайшем будущем.