Сгенерированное ИИ изображение заставило Уолл-стрит рухнуть

0
(0)

 Euronews

Изображение, сгенерированное искусственным интеллектом, впервые повлияло на движение рынков. Уолл-Стрит упала из-за появления в сети фейковой фотографии горящего Пентагона.

Фальшивое изображение взрыва рядом с Пентагоном распространилось в социальных сетях и вызвало кратковременное падение фондового рынка США в понедельник.

На снимке, который уже опровергнут, был изображен шлейф дыма, клубящийся рядом со штаб-квартирой Министерства обороны США. Эксперты говорят, что это изображение имеет признаки искусственного интеллекта (ИИ) и иллюстрирует угрозу, которую представляет эта технология с точки зрения распространения дезинформации.

Изображением поделились несколько аккаунтов в Twitter, имеющих синюю галочку «проверено», в том числе один, выдававший себя за новостное агентство Bloomberg — «@BloombergFeed», — который после этого был заблокирован.

Впоследствии фальшивые новости были распространены десятками других аккаунтов в Твиттере, включая российскую государственную новостную сеть RT, которая была заблокирована в ЕС, но имеет более 3 миллионов подписчиков на платформе.

Ряд аккаунтов, разместивших фальшивое изображение в Twitter, похоже, публикуют теории заговора, посты о криптовалютах или фейковую информацию о войне России в Украине.

Один из них, WhaleChart, разместил изображение в Twitter вместе с текстом: «СРОЧНО: Взрыв возле Пентагона». Этот твит был просмотрен более 500 000 раз.

Фейковую новость опровергла пожарная служба округа Арлингтон, которая заявила: «Агентство по защите сил Пентагона и ACFD осведомлены о распространенном в социальных сетях сообщении о взрыве возле Пентагона. В Пентагоне или рядом с ним не происходит никакого взрыва или инцидента, и нет никакой непосредственной опасности или угрозы для населения».

Однако несколько американских новостных изданий отметили, что Уолл-стрит заметно просела через несколько мгновений после того, как изображение начало распространяться в Twitter. Редакция Bloomberg даже назвала это «возможно, первым случаем, когда сгенерированное ИИ изображение привело рынок в движение».

Этот инцидент усиливает растущую обеспокоенность по поводу потенциального использования инструментов ИИ для распространения фальшивых новостей, дестабилизации общества и привлечения избирателей перед выборами.

Хаос в системе проверки Twitter

Под руководством Илона Маска, купившего компанию за 44 миллиарда долларов в октябре прошлого года, Twitter внес неоднозначные изменения в свою систему верификации. Ранее аккаунты, которые считались заметными — страницы экспертов, знаменитостей, журналистов или организаций — проверялись.

Согласно новой политике, любой человек может получить синий флажок верификации, заплатив за это, и ему не нужно предоставлять никаких доказательств для его идентификации.

Это изменение привело к предупреждениям о том, что на платформе могут появиться случаи самозванства, и их число значительно возросло.

На запрос о комментарии по электронной почте Twitter ответил эмодзи «какашка».

Джинн из бутылки

Фальшивое изображение было распространено на фоне продолжающегося беспокойства по поводу искусственного интеллекта и потенциальных опасностей, которые он может представлять.

Опрос Reuters/Ipsos, опубликованный 17 мая, показал, что более двух третей американцев обеспокоены негативным влиянием ИИ, а 61% считает, что он может угрожать цивилизации.

На прошлой неделе генеральный директор OpenAI Сэм Альтман призвал политиков разработать систему регулирования для ИИ на слушаниях, в ходе которых один из сенаторов, Кори Букер, сказал: «Невозможно загнать этого джинна в бутылку. В глобальном масштабе это взрывоопасно».

Европейский союз сейчас разрабатывает собственный закон об ИИ для регулирования этой технологии.

Насколько полезным был этот пост?

Нажмите на звезду, чтобы оценить его!

Средний рейтинг 0 / 5. Подсчет голосов: 0

Пока что нет голосов! Будьте первым, кто оценит этот пост.

Мы сожалеем, что это сообщение не было полезным для вас!

Давайте улучшим этот пост!

Расскажите нам, как мы можем улучшить этот пост?