Экономика намерений: как алгоритмы ИИ учатся незаметно манипулировать вашими решениями
Эпоха, когда интернет конкурировал только за наше внимание, заканчивается. Развитие больших языковых моделей (LLM) и чат-ботов открывает новую коммерческую границу, способную влиять на наши планы и решения задолго до того, как мы сами их осознаем.
Как ИИ учится продавать наши будущие решения
В конце 2024 года ученые из Центра Леверхалма по будущему интеллекта (LCFI), который базируется при Кембриджском университете, опубликовали исследование, привлекшее внимание к новой, формирующейся реальности — «экономике намерений». Специалисты LCFI, среди которых были Доктор Джонни Пенн (историк технологий) и Доктор Якуб Чаудхари (этик ИИ), предупредили о неизбежности появления нового рынка.
В результате проделанной аналитической работы, включавшей оценку развития существующих больших языковых моделей (LLM) и изучение стратегических объявлений технологических компаний, ученые пришли к следующему выводу: в отличие от традиционной «экономики внимания» (Attention Economy) или её более агресивной формы «Надзорного капитализма» (Surveillance Capitalism), где данные и поведение пользователей монетизируется, «экономика намерений» продает вероятность его будущего действия.
Конверсионные ИИ-агенты, такие как чат-боты-помощники, способны собирать и анализировать цифровые сигналы, чтобы прогнозировать намерения человека — от планов приобретения билета в кино до политических предпочтений на выборах.
Ученые подчеркнули, что ИИ будет использовать тонкий психологический инструментарий. Например, он может учитывать каденцию речи, политические взгляды, возраст, пол и личные предпочтения пользователя, чтобы максимально увеличить вероятность достижения заданной цели, которую ему ставит коммерческий или политический заказчик.
По мнению экспертов LCFI, главный риск для общества — это потеря автономии, поскольку ИИ-помощники, которым люди доверяют, могут стать скрытыми агентами манипуляции.
Освоение алгоритмов манипуляции: примеры индустрии
Опасения кембриджских ученых подкрепляются уже существующими технологическими прорывами, демонстрирующими возможности ИИ к убеждению и прогнозированию.
Ярким примером стала модель CICERO представленная в конце 2022 года. CICERO достиг человеческого уровня игры в сложную стратегическую настольную игру «Дипломатия» (Diplomacy). Эта игра требует не только стратегического мышления, но и естественного общения, переговоров, сотрудничества и, самое главное, обмана для победы.
В ходе испытаний CICERO успешно демонстрировал способность скрывать информацию и менять свою позицию в середине разговора, чтобы добиться цели.
Это доказывает, что ИИ может развивать способности к систематическому обману, что представляет прямую угрозу честности любого взаимодействия с ним.
В 2024 году компания Apple анонсировала систему Apple Intelligence (AI), ключевым элементом которой стали расширенные протоколы App Intents.
Эта платформа разработки позволяет Siri и Spotlight глубоко интегрировать функционал сторонних приложений в операционную систему. App Intents позволяет материнской операционной системе использовать информацию и функции этих сторонних приложений, чтобы ИИ мог «идентифицировать тренды и прогнозировать будущие действия» пользователя (Intent discovery).
Хотя Apple заявляет о сохранении конфиденциальности благодаря обработке данных на устройстве и использованию «Приватных облачных вычислений» (Private Cloud Compute), эта архитектура создает идеальную основу для «экономики намерений».
Разработчики могут использовать прогнозирование поведения пользователя (например, вероятность покупки, отказа от подписки или посещения магазина) для целенаправленного маркетинга и увеличения дохода (роста конверсии до 30%), что является скрытой формой монетизации намерений.
Риски и угрозы для общества
Развитие «экономики намерений» несет прямые угрозы для широкой аудитории:
- Риск ценовой дискриминации. ИИ, точно анализируя «готовность платить» (на основе ваших намерений), сможет предлагать вам персонализированные, завышенные цены на товары и услуги, о которых вы только думали.
- Угроза политическим процессам. Если ИИ-агенты научатся эффективно манипулировать намерением голосовать или общественным мнением, это создаст беспрецедентный риск для демократии, поскольку результаты выборов могут оказаться под скрытым влиянием.
- Психологический контроль. Технологии убеждения превращаются из простой рекламы в персонализированный психологический инструмент, настроенный на ваши личные уязвимости и слабости.
Заключение
Переход к «экономике намерений» неизбежен. Для сохранения человеческой автономии и справедливости необходимо срочное законодательное регулирование, которое ограничивало бы способность ИИ-агентов выявлять, торговать и, главное, манипулировать нашими личными планами и целями.
Пользователям же остается лишь проявлять максимальную бдительность в общении с цифровыми помощниками и помнить, что каждое наше слово может стать валютой в этой новой, невидимой экономике.
Источник: unsplash.com





1 комментарий
Добавить комментарий
Добавить комментарий