Невероятно опасно: база MIT вместила 700+ угроз, связанных с искусственным интеллектом
Массачусетский технологический институт (MIT) подготовил базу потенциальных угроз, связанных с искусственным интеллектом. Хотя большинство из них пока гипотетические, вполне возможно, что в будущем этот, удобный на первый взгляд инструмент, может стать действительно опасными.
Уже сегодня присутствие ИИ ощущается в жизни почти каждого человека. Он «помогает» в онлайн-поиске, в подготовке текстов и изображений и многих других видах работ. По мере того, как системы искусственного интеллекта становятся всё «умнее», всё больше экспертов выражают обеспокоенность тем, что ИИ может быть опасен. Казалось бы, ничего нового? Не вполне так.
Специалисты MIT обобщили сведения о потенциальных угрозах и выяснилось, что рисков, пожалуй, больше, чем кто-либо мог бы представить. Опасность подстерегает повсюду — в самых оптимистичных сценариях ИИ способен заменить людей на работе, о худших не приходится и говорить, они апокалиптичны.
В базе MIT имеются как угрозы, с которыми уже столкнулись люди, так и те, которые будут иметь значение в будущем. «Живая» пополняемая база данных включает более 700 типов угроз, информация взята как из исследовательских работ, так и из материалов о расследовании конкретных инцидентов.
Можно предположить, что база будет чрезвычайно полезна тем, кто уже разрабатывает правила и законы для регулирования деятельности систем искусственного интеллекта. Впрочем, она может сослужить хорошую службу и, например, работодателям, чьи сотрудники пользуются ИИ, и самим людям.
Как сообщается в материалах учёных, 51 % рисков связаны напрямую с ИИ, а 34 % — с людьми, использующими соответствующие технологии в неблаговидных целях. Около 2/3 рисков, как предполагается, возникают только после того, как ИИ обучен и внедрён и только 10 % — до того, как это произошло. Другими словами, материал в очередной раз свидетельствует о необходимости регулирования отрасли. К слову, OpenAI и Anthropic обещали представить свои новейшие и самые «умные» ИИ-модели американской структуре AI Safety Institute до того, как их представят общественности.
В чём же риски использования искусственного интеллекта? Быстрый просмотр базы по диагонали показывает, что угрозы можно разделить на ряд категорий. Например, побочные эффекты возникают при попытках людей добиться «прибыли или влияния», в процессе сознательно допускается вред окружающей среде, истощение ресурсов, возникновение психических расстройств, распространяется дезинформация
Ещё одну группу рисков, например, представляют преступные сообщества, которые создают модели, специально предназначенные для причинения ущерба — для организации террористических актов или «простого» нарушения закона без последствий для злоумышленников.
Также выясняется, что сбор данных из широкого круга источников может привести к тому, что модели окажутся во власти «токсичного контента» и «стереотипных предубеждений». В числе прочих проблем — вероятность того, что ИИ-системы будут получать слишком много контроля над людьми, например, ненавязчиво влияя тем или иным образом на продолжительность романтических отношений пользователей. Такой вариант «мягкой силы» перекликается с паническими сообщениями о потенциальном влиянии алгоритмов TikTok на аудиторию социальной сети.
Имеются и другие, достойные внимания риски, в том числе того, что люди станут зависимыми от ИИ, приписывать ему человеческие качества и всё больше доверять ему в самых разных ситуациях. Это может привести к тому, что в той или иной критической обстановке люди будут полагаться на искусственный интеллект с его собственными слабостями, включая поверхностное знание многих вопросов.
Конечно, не стоит забывать и о прямых угрозах безопасности. Уже были прецеденты того, что ИИ при решении теоретических логически-этических задач не руководствовался интересами человечества. Не исключено, что более развитые модели будущего, которые получат контроль над оборудованием, включая оружие и инфраструктурой, могут буквально физически противодействовать людям в случае, если те решат деактивировать искусственный разум — ИИ может посчитать силовое решение проблемы наиболее эффективным.
Самое забавное, что главными бенефициарами появления базы могут в самой ближайшей перспективе стать не прикладные специалисты по ИИ, а всевозможные авторы фантастических книг, фильмов и других произведений. Базы из 700 типов угроз достаточно для создания любого контента, от комедий до киберпанка, ужасов и даже мелодрам.
Источник: MSN
Источник: www.bing.com





0 комментариев
Добавить комментарий