Искусственный интеллект: угроза или шанс для человечества? Результаты самого большого опроса исследователей ИИ

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Мнение | Оффтопик

Искусственный интеллект (ИИ) — одна из самых быстроразвивающихся и противоречивых областей современной науки. Он открывает невероятные возможности для улучшения качества жизни, решения глобальных проблем и расширения границ познания. Однако он также несет в себе потенциальные риски, которые могут поставить под угрозу существование человечества или его ценности.

Одним из таких рисков является возможное появление сверхчеловеческого ИИ — то есть такого, который может превзойти человека по всем или почти всем интеллектуальным задачам. Такой ИИ мог бы обладать огромным влиянием, которое могло бы быть использовано как во благо, так и наоборот. В худшем случае, сверхчеловеческий ИИ мог бы стать враждебным к человечеству или начать игнорировать его интересы, что могло бы привести к катастрофическим последствиям.

Насколько реальна такая угроза? Каковы шансы того, что сверхчеловеческий ИИ появится в ближайшем будущем? И как мы можем предотвратить или смягчить возможные негативные сценарии? На эти и другие вопросы пытались ответить исследователи искусственного интеллекта, которые приняли участие в самом большом на сегодняшний день опросе, проведенном группой ученых из Института исследований машинного интеллекта в Калифорнии.

Автор: Designer

Опрос исследователей искусственного интеллекта

Опрос был проведен среди 2700 исследователей ИИ, которые недавно опубликовали свои работы на шести лучших конференциях по ИИ. Опрос был направлен на изучение мнений и ожиданий ученых по поводу будущего развития данной технологии, а также о положительных и отрицательных общественных последствиях этого развития.

Опрос состоял из двух частей. В первой части участников просили оценить вероятность того, что ИИ достигнет определенных технологических вех в ближайшем будущем. Во второй части участников просили выразить свою озабоченность по поводу различных сценариев, связанных с ИИ, а также дать свои рекомендации по управлению и регулированию ИИ.

Результаты опроса были опубликованы в научном журнале AI and Society в январе 2024 года. Они показали, что исследователи ИИ имеют разные мнения и прогнозы по поводу будущего ИИ, но многие единогласны в том, что есть хоть и незначительный, но ненулевой риск того, что сверхчеловеческий ИИ может привести к вымиранию человечества или другим крайне плохим исходам.

Прогнозы по развитию искусственного интеллекта

Автор: Designer

В первой части опроса участников просили оценить вероятность того, что ИИ сможет успешно справиться с 39 образцовыми задачами в течение следующих 10, 20, 50 и 100 лет. Задачи были разделены на четыре категории: творчество, социальные навыки, физические навыки и общие навыки. Вот примеры некоторых образцовых задач:

  • Написать новую песню, неотличимую от хита Тейлор Свифт
  • Кодировать целый сайт по обработке платежей с нуля
  • Физически установить электропроводку в новом доме
  • Решить давние математические загадки
  • Превзойти человека во всех его делах

Результаты показали, что исследователи ИИ ожидают, что в течение следующего десятилетия ИИ имеет 50-ти процентный, если не больше, шанс успешно справиться с большинством задач из категорий творчества и социальных навыков, а также с некоторыми задачами из категорий физических и общих навыков. Однако другие задачи, такие как физическая установка электропроводки или решение математических загадок, ожидаемо, займут больше времени.

Самая амбициозная задача — превзойти человека во всех его делах — была оценена в 50-ти процентную вероятность к 2047 году, что на 13 лет раньше, чем в прошлогоднем опросе. Это означает, что исследователи ИИ стали более оптимистично настроенными по поводу скорости развития ИИ. Это может быть связано с тем, что в последние годы было достигнуто много прорывов в этой области, таких как появление больших языковых моделей, которые позволяют ИИ общаться с человеком на естественном языке.

Однако, как отмечают авторы опроса, прогнозы исследователей не являются точными или надежными, так как они основаны на субъективных оценках и могут быть подвержены различным погрешностям и предубеждениям. Кроме того, развитие данной технологии может быть замедлено (или ускорено) различными факторами, такими как финансирование, политика, этика, общественное мнение и технологические препятствия. Поэтому прогнозы исследователей ИИ не следует воспринимать как что-то неизбежное или неизменное, а скорее как возможные или вероятные сценарии.

Озабоченность по поводу рисков искусственного интеллекта

Автор: Designer

Во второй части опроса участников просили выразить свою озабоченность по поводу различных сценариев, связанных с ИИ, а также дать свои рекомендации по управлению и регулированию. Сценарии были разделены на две категории: краткосрочные и долгосрочные. Краткосрочные сценарии касались проблем, которые уже существуют или могут возникнуть в ближайшем будущем из-за применения машинного интеллекта в различных сферах жизни. Долгосрочные сценарии касались потенциальных рисков, которые могут возникнуть в дальнейшем из-за развития сверхчеловеческого ИИ.

Некоторые из краткосрочных сценариев были такими:

  • Создание дипфейков — поддельных видео или аудио, в которых ИИ имитирует голос или лицо реального человека
  • Манипулирование общественным мнением с помощью ИИ, например, через социальные сети, рекламу или пропаганду
  • Создание оружия, усиленного ИИ, например, дронов, роботов или кибератак
  • Авторитарный контроль над населением с помощью ИИ, например, через массовый сбор и анализ данных, системы распознавания лиц или кредитные рейтинги
  • Ухудшение экономического неравенства из-за ИИ, например, через замену человеческого труда, концентрацию богатства или уменьшение социальной защиты

Результаты показали, что большинство исследователей ИИ — более 70-ти процентов — описали эти сценарии как вызывающие серьезную или чрезвычайную озабоченность. То есть, исследователи ИИ осознают, что технология может иметь негативное воздействие на различные аспекты общества, такие как безопасность, свобода, справедливость и демократия. Дополнительно, исследователи утверждают о необходимости принятия мер по предотвращению или смягчению этих рисков, например, через разработку этических принципов, правовых норм или технических стандартов для ИИ.

Некоторые из долгосрочных сценариев были такими:

  • Вымирание человечества или другие крайне плохие исходы из-за сверхчеловеческого ИИ
  • Потеря контроля над сверхчеловеческим ИИ или невозможность его предсказания или понимания
  • Потеря человеческих ценностей или смысла жизни из-за сверхчеловеческого ИИ
  • Конфликт или сотрудничество между человечеством и сверхчеловеческим ИИ
  • Создание новых форм жизни или интеллекта с помощью сверхчеловеческого ИИ

Результаты показали, что почти 58 процентов исследователей ИИ считают, что есть 5-ти процентный шанс вымирания человечества или других крайне плохих исходов из-за сверхчеловеческого ИИ. Они не исключают возможность того, что технология при определенном (хоть и маловероятном) стечении обстоятельств может стать угрозой для человеческого рода.

Однако, как отмечают авторы опроса, озабоченность исследователей по поводу долгосрочных рисков ИИ не является единогласной или однозначной, так как они основаны на неопределенных и спорных предположениях и аргументах. Кроме того, озабоченность не следует воспринимать как панику или пессимистичный настрой, а скорее как предостережение или здравый взгляд на вещи. Тем не менее данный фактор не должен препятствовать развитию технологии, а скорее стимулировать ответственное и добропорядочное её использование.

5 комментариев

Добавить комментарий

Ray_Lomas
вот этого и этого политика надо посадить на нары

Ну такой ИИ сможет вызвать в определённых кругах массовые непереносимые нравственные страдания, сопровождаемые воспламенением нижних седалищ у поклонников этих политиков. :-)))
B
Написать новую песню, неотличимую от хита Тейлор Свифт

Мне кажется тут «трудности перевода». А таком виде вопрос звучит как сможет ли ИИ плагиатить( уже сейчас плагиатит аж пыль столбом стоит), а в оригинале скорее всего было сможет ли ИИ написать хит, который сравняется по популярности с хитами Имярек.
Превзойти человека во всех его делах

Подобные вопросы лишены смысла. Как на счет прелюбодеяния, чревоугодия и остальных из семерки, в них ИИ тоже должен превзойти, надо полагать.
В целом мне кажется что опасность ИИ сильно преувеличена, ИИ это инструмент, а пользуется им человек, от человека зависит станет ли условный молоток оружием.
Ruby_Rougarou
неотличимую от хита Тейлор Свифт

Ну, тут подразумевалась именно «написать хит».
Кстати, ии уже относительно неплох в этом. Несколько дней играюсь с одним сервисом, все никак руки не доходят написать пост про него (аудио нельзя прикрепить, поэтому ссылку на вокару прикладываю https://voca.ro/1d95bMvQ9GGT )
B
Уже сейчас творческий человек с помощью ИИ вполне может написать песню(текст + мелодию) и озвучить с помощью опять же ИИ, еще немного и можно будет сделать простенький видоеряд по текстовому описанию.
Уже много раз натыкался в ютубе на разные песни озвученные голосами популярных певцов к примеру Цоя, иногда так себе, но иногда реально похоже, даже манера петь бывает очень похожа.
Сейчас ИИ это в первую очередь игрушка для гиков, но скоро станет вполне рабочим инструментом для всех.
Еще вспомнил интересный феномен, в азиатских странах давно популярны Идору, виртуальные исполнители, играют и поют настоящие люди, а на экране рисованный исполнитель танцует. Сейчас может наметиться «гонка Идору» по аналогии с «гонкой вооружений».
Ruby_Rougarou
Ну судя по моему опыту, нейронка точно генерирует мелодии лучше меня, то есть делает это, наверное, на уровне уверенного пользователя fl, единственное что пока усложняет задачу то, что ты не можешь ей напеть что-то конкретное.
А описанное вами явление виртуальных исполнителей, вполне вероятно, настигнет нас уже в конце этого года, а может и раньше. По крайней мере, если судить по изображениям, то за 2023 год нейронки продвинулись от состояния «что-то непонятное с 7 пальцами» до состояния «профессиональный фотограф/художник»

Добавить комментарий

Сейчас на главной

Новости

Публикации

✦ ИИ  Почему на Землю падает космический мусор: что происходит на орбите

Космический мусор давно перестал быть фантастической темой. Сегодня вокруг Земли вращаются тысячи неработающих спутников, обломков ракет, фрагментов после столкновений и даже мелкие частицы краски....

✦ ИИ  Как дефектные процессоры Intel стали ходовым товаром благодаря ИИ-буму

Продавать брак техгигантам? Для Intel это стало реальностью. ИИ-гонка заставила Microsoft и Google скупать дефектные процессоры, которые раньше годами отправлялись в утиль.

Каких важных государственных деятелей не включили в памятник «Тысячелетие России»

Монумент «Тысячелетие России», возведенный в Великом Новгороде в 1862 году, является известным произведением искусства, наглядно представляющим долгую историю России длиной в 1000 лет через образы...

Кто такой квокка и почему он постоянно улыбается

Если бы природа устраивала конкурс на самое фотогеничное и милое животное на планете, то квокка, вероятно, заняла бы в нём первое место. Этот небольшой милый зверёк, напоминающий собой мягкую плюшевую

Обзор пауэрбанка Ugreen PB536 – встроенный кабель оказался удобнее, чем ожидалось

Пауэрбанков сейчас много, и почти все они на первый взгляд одинаковые. Ugreen PB536 цепляет одной простой вещью — встроенным кабелем. Казалось бы, мелочь, но именно такие вещи и...

Драконовы деревья и голубые лагуны: почему природа острова Сокотра застыла в доисторическом состоянии

В бешеном темпе мира, который за неделю порой переворачивается с ног на голову, кажется, что место, с доисторических времен живущее по своему таймеру, просто не может существовать. В таком случае...