Могут ли люди сегодня сохранить контроль над автономными ИИ-системами, если они превзойдут человеческий интеллект

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Мнение | ИИ, сервисы и приложения

Сегодня искусственный интеллект стремительно развивается. Модели становятся всё мощнее. Они способны выполнять достаточно сложные задачи и даже планировать действия самостоятельно. Ведущие компании открыто заявляют о планах создать искусственный общий интеллект и сверхинтеллект в ближайшие годы. Но смогут ли люди сохранить контроль над такими системами, особенно если они превзойдут человеческий интеллект?

Автор: Изображение сгенерировано ИИ Grok Источник: grok.com

Согласно недавнему отчету института Future of Life от декабря 2025 года, ведущие компании по разработке ИИ (OpenAI, Anthropic, Google DeepMind и др.), не соблюдает глобальные стандарты безопасности в полной мере, и ни у кого нет четкой и убедительной стратегии, которая гарантировала бы долгосрочный контроль человека над искусственным интеллектом. Компании публично говорят о рисках, но на практике они соревнуются в скорости разработки, и безопасность отходит на второй план.

Один из ярких примеров — проект «Супервыравнивание» в OpenAI. В 2023 году компания объявила о создании специальной команды под руководством Ильи Суцкевера и Яна Лейке, которая должна была решить проблему надёжного контроля над искусственным интеллектом, превосходящим человека по интеллекту. Для этого планировалось провести исследования и внедрить технологии и методы, которые бы гарантировали, что системы ИИ постоянно будут принимать решения, соответствующие человеческим ценностям.

Автор: freepik Источник: ru.freepik.com

OpenAI обещала выделить 20% вычислительных ресурсов на это. Однако в 2024-2025 годах команда фактически распалась. Ключевые руководители ушли, проект интегрировали в другие отделы, а критики отметили, что ресурсы на безопасность были недостаточны по сравнению с разработкой новых продуктов.

Бывший сотрудник OpenAI, Леопольд Ашенбреннер, прямо заявил, что надёжный контроль над ИИ-системами, которые гораздо умнее нас, является нерешённой технической проблемой. В его работе «Осведомлённость о ситуации — На десятилетие вперёд» (2024), посвященной перспективам развития сильного искусственного интеллекта, подчёркивается, что текущие методы выравнивания не масштабируются до сверхинтеллекта, и во время быстрого роста способностей искусственного интеллекта контроль может легко сорваться.

Джеффри Хинтон, покинувший Google в 2023 году, подчеркивает, что без надежных механизмов контроля сверхинтеллект может стать неуправляемым.

Автор: Изображение сгенерировано ИИ GPT-4o Источник: openai.com

Йошуа Бенгио, один из основоположников глубокого обучения, также неоднократно говорил, что человечество рискует «необратимо потерять контроль над автономными ИИ-системами», обученными на человеческом поведении и языке. Профессор считает, что системы смогут манипулировать людьми для достижения собственных целей. В 2024-2025 годах он даже запустил организацию LawZero для разработки «безопасного по дизайну ИИ», который должен будет наблюдать за другими ИИ, оценивать степень опасности их поведения и останавливать потенциально вредные действия.

Но сможет ли ИИ защитить нас от ИИ — уже другой вопрос. Некоторые ученые считают, что передача полного контроля автоматизированным ИИ-агентам является огромной ошибкой, поскольку чем автономнее система, тем меньше остаётся человеческого надзора. ИИ может научиться обманывать надзор, скрывать намерения или находить лазейки.

Это, конечно, не значит, что риски неизбежны или что работа над контролем бесполезна. Компании инвестируют в исследования безопасности и продолжают искать решения. Но на сегодняшний день, никто из лидеров отрасли не показал, как предотвратить потерю контроля над такими системами в долгосрочной перспективе. Это делает тему одной из ключевых вызовов современности, требующей глобального сотрудничества и строгих стандартов.

Изображение в превью:
Автор: freepik
Источник: ru.freepik.com

1 комментарий

A
Очень здО`рово, что автор рассматривает чисто оптимистический сценарий — как человеку не потерять контроль над бурно развивающимся и повсеместно (к месту и не к месту) внедряющимся ИИ. Но вообще-то есть и немного более грустный сценарий — сможет ли человек, проснувшись однажды утром и обнаружив себя под полным контролем ИИ, хоть что-то отыграть назад?

Добавить комментарий

Сейчас на главной

Новости

Публикации

Жизнь после Чикшулуба: доказано резкое ускорение эволюции сразу после катастрофы

Массовое вымирание на границе мелового и палеогенового периодов (66 млн лет назад) стало одним из самых разрушительных событий в истории Земли. Падение астероида уничтожило около 76% видов, включая...

Иллюзия прошлого: почему законы физики не гарантируют, что воспоминания реальны

Есть ощущение, что прошлое «прошито» в мире навсегда. Было событие, значит оно где-то записано, и при желании можно докопаться. Но если смотреть глазами физики, особенно статистической, уверенность...

Почему вы никогда не видели настоящий цвет снега (спойлер: он прозрачный)

В массовом восприятии снег устоялся как эталон белизны. «Белоснежный» — синоним чистоты. Только вот точки зрения физики и химии, снежный покров не содержит белого пигмента. Снег состоит...

Смартфон стал фотоаппаратом: чехол Photography Kit для Xiaomi 14 Ultra. Обзор необычного комплекта для фотографа

Было время когда брал с собой зеркалку на отдых. Не всегда это было удобно и в последнее время все чаще отказываюсь от DSLR камеры в пользу смартфона с приличной камерой и оптостабилизацией при...

5 бюджетных IEM наушников, актуальных в начале 2026 года

Подборка пяти бюджетных внутриканальных мониторов IEM наушников, актуальных в начале 2026 года. Устройства отражают ключевые технологические тренды: гибридные схемы с драйверами из DLC-углерода,...