В минувший вторник компания Google отказалась от своего обещания не использовать искусственный интеллект для разработки оружия и систем наблюдения.
Ещё в 2018 году Google оказалась под серьёзным давлением после того, как стало известно о контракте компании с Министерством обороны США по проекту Maven, использующему ИИ для анализа изображений с дронов. Вскоре после этого Google выпустила заявление, излагающее «наши принципы», которые включали обещание не допустить использования их ИИ для технологий, «причиняющих или способных причинить общий вред», оружия, наблюдения и всего, что «противоречит общепринятым принципам международного права и прав человека».
Однако теперь на веб-странице с этим заявлением от 2018 года, автором которого является генеральный директор Сундар Пичаи, появилась заметка в верхней части страницы: «Мы обновили наши принципы ИИ», направляющая читателей на сайт AI.Google для ознакомления с последними изменениями.
Все упоминания о неиспользовании ИИ для оружия и наблюдения исчезли. Вместо этого перечислены три принципа, главным из которых является «Смелые инновации».
Google объясняет изменения тем, что ИИ стал «технологией общего назначения и его принципы необходимо обновлять в соответствии с меняющимися реалиями». Джеймс Маньика (James Manyika), старший вице-президент Google по технологиям и обществу, и Демис Хассабис (Demis Hassabis), генеральный директор Google DeepMind, написали в блоге компании: «Идет глобальная конкуренция за лидерство в области искусственного интеллекта во всё более сложной геополитической обстановке. Мы считаем, что демократические страны должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность».
Это решение вызвало критику со стороны экспертов и бывших сотрудников Google. Маргарет Митчелл (Margaret Mitchell), бывший со-руководитель команды этичного ИИ Google, заявила: «Удаление этого пункта стирает работу, которую проделали так много людей в области этичного ИИ и активистского пространства в Google, и, что еще более проблематично, это означает, что Google, вероятно, теперь будет работать над развёртыванием технологий, которые могут напрямую убивать людей».
Эксперты Amnesty International назвали решение Google «позорным» и призвали компанию срочно отменить изменения в принципах ИИ. Мэтт Махмуди (Matt Mahmoudi), исследователь и советник по ИИ и правам человека в Amnesty International, заявил: «Решение Google отменить запрет на использование ИИ для оружия позволяет компании продавать продукты, которые питают технологии, включая массовое наблюдение, беспилотники, разработанные для полуавтоматических ударов по сигнатурам, и программное обеспечение для генерации целей, предназначенное для ускорения принятия решения об убийстве».
Это изменение политики Google совпадает с общей тенденцией среди крупных игроков в сфере ИИ. Компании, такие как Meta*, Anthropic и OpenAI, уже открыли свои модели для государственных агентств США.
Колумнист Bloomberg Парми Олсон (Parmy Olson) считает, что отказ Google от принципа неиспользования ИИ для разработки вооружений знаменует «опасное изменение тенденции» и грозит неконтролируемой эскалацией конфликтов по всему миру. По её мнению, интеграция ИИ в системы вооружений может привести к появлению «автоматов, выдающих ответную реакцию со скоростью, не оставляющей времени на дипломатию».
Это решение Google представляет собой значительный сдвиг в подходе технологической индустрии к этике ИИ и ее отношениям с правительственным и оборонным секторами, поднимая важные вопросы о будущем развитии и применении технологий ИИ.
* Компания Meta (социальные сети Instagram и Facebook) - признана экстремистской организацией на территории Российской Федерации