Невероятно опасно: база MIT вместила 700+ угроз, связанных с искусственным интеллектом

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Мнение | ИИ, сервисы и приложения

Массачусетский технологический институт (MIT) подготовил базу потенциальных угроз, связанных с искусственным интеллектом. Хотя большинство из них пока гипотетические, вполне возможно, что в будущем этот, удобный на первый взгляд инструмент, может стать действительно опасными.

Автор: Bing.com/DALL-E 3 Источник: www.bing.com

Уже сегодня присутствие ИИ ощущается в жизни почти каждого человека. Он «помогает» в онлайн-поиске, в подготовке текстов и изображений и многих других видах работ. По мере того, как системы искусственного интеллекта становятся всё «умнее», всё больше экспертов выражают обеспокоенность тем, что ИИ может быть опасен. Казалось бы, ничего нового? Не вполне так.

Специалисты MIT обобщили сведения о потенциальных угрозах и выяснилось, что рисков, пожалуй, больше, чем кто-либо мог бы представить. Опасность подстерегает повсюду — в самых оптимистичных сценариях ИИ способен заменить людей на работе, о худших не приходится и говорить, они апокалиптичны.

В базе MIT имеются как угрозы, с которыми уже столкнулись люди, так и те, которые будут иметь значение в будущем. «Живая» пополняемая база данных включает более 700 типов угроз, информация взята как из исследовательских работ, так и из материалов о расследовании конкретных инцидентов.

Можно предположить, что база будет чрезвычайно полезна тем, кто уже разрабатывает правила и законы для регулирования деятельности систем искусственного интеллекта. Впрочем, она может сослужить хорошую службу и, например, работодателям, чьи сотрудники пользуются ИИ, и самим людям.

Как сообщается в материалах учёных, 51 % рисков связаны напрямую с ИИ, а 34 % — с людьми, использующими соответствующие технологии в неблаговидных целях. Около 2/3 рисков, как предполагается, возникают только после того, как ИИ обучен и внедрён и только 10 % — до того, как это произошло. Другими словами, материал в очередной раз свидетельствует о необходимости регулирования отрасли. К слову, OpenAI и Anthropic обещали представить свои новейшие и самые «умные» ИИ-модели американской структуре AI Safety Institute до того, как их представят общественности.

В чём же риски использования искусственного интеллекта? Быстрый просмотр базы по диагонали показывает, что угрозы можно разделить на ряд категорий. Например, побочные эффекты возникают при попытках людей добиться «прибыли или влияния», в процессе сознательно допускается вред окружающей среде, истощение ресурсов, возникновение психических расстройств, распространяется дезинформация и т. п.

Ещё одну группу рисков, например, представляют преступные сообщества, которые создают модели, специально предназначенные для причинения ущерба — для организации террористических актов или «простого» нарушения закона без последствий для злоумышленников.

Также выясняется, что сбор данных из широкого круга источников может привести к тому, что модели окажутся во власти «токсичного контента» и «стереотипных предубеждений». В числе прочих проблем — вероятность того, что ИИ-системы будут получать слишком много контроля над людьми, например, ненавязчиво влияя тем или иным образом на продолжительность романтических отношений пользователей. Такой вариант «мягкой силы» перекликается с паническими сообщениями о потенциальном влиянии алгоритмов TikTok на аудиторию социальной сети.

Имеются и другие, достойные внимания риски, в том числе того, что люди станут зависимыми от ИИ, приписывать ему человеческие качества и всё больше доверять ему в самых разных ситуациях. Это может привести к тому, что в той или иной критической обстановке люди будут полагаться на искусственный интеллект с его собственными слабостями, включая поверхностное знание многих вопросов.

Конечно, не стоит забывать и о прямых угрозах безопасности. Уже были прецеденты того, что ИИ при решении теоретических логически-этических задач не руководствовался интересами человечества. Не исключено, что более развитые модели будущего, которые получат контроль над оборудованием, включая оружие и инфраструктурой, могут буквально физически противодействовать людям в случае, если те решат деактивировать искусственный разум — ИИ может посчитать силовое решение проблемы наиболее эффективным.

Самое забавное, что главными бенефициарами появления базы могут в самой ближайшей перспективе стать не прикладные специалисты по ИИ, а всевозможные авторы фантастических книг, фильмов и других произведений. Базы из 700 типов угроз достаточно для создания любого контента, от комедий до киберпанка, ужасов и даже мелодрам.

Источник: MSN

Изображение в превью:
Автор: Bing/Dall-E 3
Источник: www.bing.com
Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
2016-kv@rambler.ru

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Будущее защищённых смартфонов на российском рынке: планы и инновации бренда Ulefone

  • Статья
  • Ulefone
О планах Ulefone на российском рынке и особенностях новых защищённых гаджетов рассказал CEO компании, господин Сюн Синьань. Компания уже много лет выпускает защищённые смартфоны и продолжает...

Гравитация следует законам Ньютона и Эйнштейна на любых масштабах: доказывает ли это существование темной материи?

Наблюдая за космосом, современные астрономы сталкиваются с серьезной физической проблемой. Эта проблема касается того, как движутся звезды внутри галактик и как сами галактики перемещаются внутри...

Обзор NAS TerraMaster F2-425 или как я пришел к покупке сетевого хранилища, после утраты более 10 000 фото

После того, как я случайно сломал свой основной телефон где-то на побережье Эгейского моря, столкнулся с потерей личных фотографий и видеороликов с близкими мне людьми. Почему-то я всегда считал,...

Моточасы вместо километров: зачем сельхозтехнике особый способ учёта пробега

У сельхозмашин (тракторов, комбайнов, погрузчиков), коммунальной технике (снегоуборочной, грейдеров) показатель наработки выражается в мото — часах, а не в километрах (как у привычных...

Как бактерии стали многоклеточными: система разделения ДНК эволюционировала во внутриклеточный каркас

Биологическая эволюция редко создает принципиально новые механизмы с нуля. В подавляющем большинстве случаев природа модифицирует уже существующие структуры, адаптируя их под совершенно новые...

Компьютерные расчеты термоядерных реакций оказались ошибочными: как эксперимент с испаренной медью переписывает законы физики плазмы

Воздействие сверхмощного оптического лазера на металл разрушает межатомные связи за квадриллионные доли секунды. В точке удара материал мгновенно переходит в состояние горячей сверхплотной плазмы,...