Искусственный интеллект и будущее человечества: что беспокоит «крестного отца ИИ» Джеффри Хинтона?

0
(0)

 Euronews  и AP

Вот некоторые из самых серьезных опасений, которые высказываются по поводу искусственного интеллекта и будущего человечества.

Эксперты в области искусственного интеллекта (ИИ) бьют тревогу по поводу темпов и масштабов последних достижений в этой области, предупреждая, что они представляют собой не что иное, как угрозу для человечества.

Среди них и удостоенный наград ученый-компьютерщик Джеффри Хинтон, известный как «крестный отец ИИ», который в прошлом месяце уволился из Google, чтобы поделиться своими опасениями по поводу бесконтрольного развития новых инструментов ИИ.

«Я внезапно изменил свои взгляды на то, станут ли они более разумными, чем мы», — сказал 75-летний Хинтон в интервью MIT Technology Review на этой неделе.

«Я думаю, что сейчас они очень близки к этому, а в будущем они будут намного умнее нас… Как мы это переживем?» — задается вопросом ученый.

Хинтон не одинок в своих опасениях. В феврале генеральный директор разработчика ChatGPT компании OpenAI Сэм Альтман заявил, что мир, возможно, не так уж далек от «потенциально страшных» инструментов ИИ — и что регулирование будет иметь решающее значение, но на его разработку потребуется время.

Вскоре после того, как в марте стартап, поддерживаемый Microsoft, выпустил последнюю модель ИИ под названием GPT-4, более тысячи исследователей и специалистов подписали письмо, призывающее взять шестимесячную паузу в развитии ИИ, поскольку, по их словам, он представляет «серьезный риск для человечества».

Вот самые большие опасения, высказанные Хинтоном и другими экспертами.

1. ИИ уже может быть умнее нас

Наш мозг способен решать уравнения, водить автомобили и следить за сериалами Netflix благодаря своему таланту организовывать и хранить информацию, находить решения сложных проблем.

Приблизительно 86 миллиардов нейронов, расположенных в нашем мозге, и, что более важно, 100 триллионов связей, которые эти нейроны устанавливают между собой, делают это возможным.

По словам Хинтона, технология, лежащая в основе ChatGPT, имеет от 500 миллиардов до триллиона связей. Хотя, казалось бы, это ставит ее в невыгодное положение по сравнению с нами, Хинтон отмечает, что GPT-4, последняя модель ИИ от OpenAI, знает «в сотни раз больше», чем любой человек. Возможно, предполагает он, у него «гораздо лучший алгоритм обучения», чем у нас, что делает его более эффективным в решении когнитивных задач.

Исследователи давно заметили, что искусственным нейронным сетям требуется гораздо больше времени для усвоения и применения новых знаний, чем людям, поскольку их обучение требует огромного количества энергии и данных.

Хинтон утверждает, что это уже не так, отмечая, что такие системы, как GPT-4, могут быстро обучаться новому, если делать это правильно. Это навело его на мысль, что системы ИИ, возможно, уже перехитрили нас: они не только могут учиться быстрее — они также могут почти мгновенно делиться друг с другом копиями своих знаний.

«Это совершенно другая форма интеллекта», — сказал Хинтон в интервью MIT Technology Review. — Новая, более совершенная».

2. ИИ может «подстегнуть» распространение дезинформации

Что будут делать более умные, чем человек, системы ИИ? Одна из пугающих возможностей заключается в том, что злоумышленники, группы или целые государства могут просто использовать их для достижения своих собственных целей.

Десятки сайтов с фальшивыми новостями уже распространились по сети на разных языках. Некоторые из них публикуют сотни созданных ИИ статей в день, говорится в новом отчете компании NewsGuard, которая оценивает достоверность сайтов и отслеживает дезинформацию в сети.

Хинтон особенно обеспокоен тем, что инструменты ИИ могут быть обучены для подтасовки результатов выборов и даже развязывания войн.

И это может быть только начало.

«Не думайте ни на секунду, что Путин не создал бы гипер-интеллектуальных роботов с целью убийства украинцев, — отмечает Хинтон. — Он бы не колебался».

3. Сделает ли ИИ нас лишними?

По оценкам OpenAI, 80 процентов работников в США могут столкнуться с подобной проблемой из-за ИИ, а в отчете Goldman Sachs говорится, что эта технология может поставить под угрозу 300 миллионов рабочих мест с полной занятостью по всему миру.

По словам Хинтона, выживание человечества окажется под угрозой, если «умные вещи будут умнее нас».

«Возможно, мы будем существовать еще какое-то время, чтобы поддерживать работу электростанций», — предположил Хинтон. — Но после этого, возможно, уже нет».

«Эти создания, прочитав все романы, которые когда-либо были, и все, что когда-либо написал Макиавелли, узнают от нас, как манипулировать людьми», — сказал Хинтон. -Даже если у них не получится напрямую потянуть за рычаги, они точно смогут заставить сделать это нас».

4. Мы не знаем, как это остановить

«Я хотел бы иметь хорошее и простое решение, которое мог бы предложить, но у меня его нет», — добавил Хинтон. — Я не уверен, что такое решение существует».

Тем не менее, правительства уделяют пристальное внимание развитию ИИ. Белый дом вызвал руководителей Google, Microsoft и компании OpenAI, создающей ChatGPT, на встречу с вице-президентом США Камалой Харрис для откровенного разговора на тему снижения как краткосрочных, так и долгосрочных рисков, связанных с этой технологией.

Европейские законодатели также ускоряют переговоры о принятии новых правил в отношении ИИ, а антимонопольный регулятор Великобритании планирует изучить влияние ИИ на потребителей, бизнес и экономику, а также необходимость новых мер контроля над такими технологиями, как ChatGPT.

Неясно только, сможет ли кто-нибудь помешать такой державе, как например Россия, использовать технологии ИИ для доминирования над своими соседями или собственными гражданами.

Хинтон предполагает, что глобальное соглашение, подобное Конвенции о химическом оружии 1997 года, может стать хорошим первым шагом к установлению международных правил против использования ИИ в военных целях.

Насколько полезным был этот пост?

Нажмите на звезду, чтобы оценить его!

Средний рейтинг 0 / 5. Подсчет голосов: 0

Пока что нет голосов! Будьте первым, кто оценит этот пост.

Мы сожалеем, что это сообщение не было полезным для вас!

Давайте улучшим этот пост!

Расскажите нам, как мы можем улучшить этот пост?