Могут ли люди сегодня сохранить контроль над автономными ИИ-системами, если они превзойдут человеческий интеллект
Сегодня искусственный интеллект стремительно развивается. Модели становятся всё мощнее. Они способны выполнять достаточно сложные задачи и даже планировать действия самостоятельно. Ведущие компании открыто заявляют о планах создать искусственный общий интеллект и сверхинтеллект в ближайшие годы. Но смогут ли люди сохранить контроль над такими системами, особенно если они превзойдут человеческий интеллект?
Согласно недавнему отчету института Future of Life от декабря 2025 года, ведущие компании по разработке ИИ (OpenAI, Anthropic, Google DeepMind и др.), не соблюдает глобальные стандарты безопасности в полной мере, и ни у кого нет четкой и убедительной стратегии, которая гарантировала бы долгосрочный контроль человека над искусственным интеллектом. Компании публично говорят о рисках, но на практике они соревнуются в скорости разработки, и безопасность отходит на второй план.
Один из ярких примеров — проект «Супервыравнивание» в OpenAI. В 2023 году компания объявила о создании специальной команды под руководством Ильи Суцкевера и Яна Лейке, которая должна была решить проблему надёжного контроля над искусственным интеллектом, превосходящим человека по интеллекту. Для этого планировалось провести исследования и внедрить технологии и методы, которые бы гарантировали, что системы ИИ постоянно будут принимать решения, соответствующие человеческим ценностям.
OpenAI обещала выделить 20% вычислительных ресурсов на это. Однако в 2024-2025 годах команда фактически распалась. Ключевые руководители ушли, проект интегрировали в другие отделы, а критики отметили, что ресурсы на безопасность были недостаточны по сравнению с разработкой новых продуктов.
Бывший сотрудник OpenAI, Леопольд Ашенбреннер, прямо заявил, что надёжный контроль над ИИ-системами, которые гораздо умнее нас, является нерешённой технической проблемой. В его работе «Осведомлённость о ситуации — На десятилетие вперёд» (2024), посвященной перспективам развития сильного искусственного интеллекта, подчёркивается, что текущие методы выравнивания не масштабируются до сверхинтеллекта, и во время быстрого роста способностей искусственного интеллекта контроль может легко сорваться.
Джеффри Хинтон, покинувший Google в 2023 году, подчеркивает, что без надежных механизмов контроля сверхинтеллект может стать неуправляемым.
Йошуа Бенгио, один из основоположников глубокого обучения, также неоднократно говорил, что человечество рискует «необратимо потерять контроль над автономными ИИ-системами», обученными на человеческом поведении и языке. Профессор считает, что системы смогут манипулировать людьми для достижения собственных целей. В 2024-2025 годах он даже запустил организацию LawZero для разработки «безопасного по дизайну ИИ», который должен будет наблюдать за другими ИИ, оценивать степень опасности их поведения и останавливать потенциально вредные действия.
Но сможет ли ИИ защитить нас от ИИ — уже другой вопрос. Некоторые ученые считают, что передача полного контроля автоматизированным ИИ-агентам является огромной ошибкой, поскольку чем автономнее система, тем меньше остаётся человеческого надзора. ИИ может научиться обманывать надзор, скрывать намерения или находить лазейки.
Это, конечно, не значит, что риски неизбежны или что работа над контролем бесполезна. Компании инвестируют в исследования безопасности и продолжают искать решения. Но на сегодняшний день, никто из лидеров отрасли не показал, как предотвратить потерю контроля над такими системами в долгосрочной перспективе. Это делает тему одной из ключевых вызовов современности, требующей глобального сотрудничества и строгих стандартов.
Источник: ru.freepik.com





1 комментарий
Добавить комментарий
Добавить комментарий