Google научила нейросети «забывать» личные данные пользователей при обучении

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Гонка за создание всё более мощных нейросетей упёрлась в неожиданный барьер — дефицит качественных данных для обучения. В поисках нового «топлива» для своих моделей технологические гиганты всё чаще обращаются к огромным массивам информации из интернета, среди которой неизбежно оказываются и конфиденциальные данные пользователей. Команда Google Research представила элегантное решение этой проблемы — технологию, которая позволяет ИИ учиться на наших данных, не запоминая их.

Автор: LeVK

Ключевая проблема современных больших языковых моделей (LLM) — их склонность к «непреднамеренному запоминанию». Хотя ответы нейросети всегда отчасти случайны, иногда она может почти дословно воспроизвести фрагмент информации, на которой обучалась. Если в обучающий набор попали чьи-то личные переписки, медицинские записи или финансовые отчёты, такой «сбой» может привести к катастрофической утечке. Для разработчиков же головной болью становится случайное цитирование моделью материалов, защищённых авторским правом.

Представьте, что нейросеть в ответ на безобидный вопрос вдруг цитирует чей-то личный имейл — именно от таких сценариев и призвана защитить новая технология.

Решение, предложенное Google, называется дифференциальной приватностью. Суть метода заключается в добавлении в процесс обучения математически выверенного «шума». Этот шум намеренно искажает исходные данные ровно настолько, чтобы модель могла уловить общие закономерности и паттерны, но не смогла запомнить конкретные детали. В результате нейросеть учится писать тексты в определённом стиле, но не сможет процитировать конкретное предложение из обучающего примера.

Однако у этого подхода была обратная сторона — «зашумление» данных снижало точность модели и требовало значительно больших вычислительных ресурсов. До сих пор никто не мог точно сказать, как найти баланс между приватностью и производительностью. Команда Google первой смогла вывести так называемые «законы масштабирования» для приватных нейросетей.

Исследователи установили, что качество работы модели зависит от трёх ключевых факторов — вычислительного бюджета (мощности «железа»), бюджета данных (объёма информации) и бюджета приватности (количества добавленного «шума»). Проще говоря, чем больше «шума» вы добавляете для защиты данных, тем больше вычислительных мощностей и объёма обучающей выборки потребуется, чтобы сохранить качество ответов на прежнем уровне.

Эта работа легла в основу VaultGemma. Но главное достижение Google — не сама модель, а опубликованная научная статья, в которой подробно описаны выведенные законы. Теперь у разработчиков по всему миру есть своего рода «рецепт», позволяющий находить идеальный баланс и создавать эффективные и при этом безопасные языковые модели. Однако, с учетом дефицита вычислительных мощностей в индустрии, сложно сказать, пойдут ли ведущие вендоры на увеличение затрат ради приватности в своих флагманских LLM.

Источник: Arstechnica

Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Наношу добро, причиняю пользу, благодарен за лайки и содержательные (дополняющие статьи) комментарии.

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Детальное изучение мозга чемпиона по памяти раскрыло нейробиологию его трюков

Рабочая память человека имеет свои физиологические ограничения. Исторически в когнитивной психологии этот предел описывался формулой «семь плюс-минус два элемента». Вы можете легко удержать в...

Эффект странника: как навыки ориентации в пространстве породили у человека геометрическое мышление

Со времен Платона геометрия считалась высшим проявлением абстрактного мышления. В диалоге «Менон» философ просит необразованного мальчика-раба удвоить площадь квадрата — и тот, опираясь...

Каньон Антилопы: почему он самый извилистый и фотогеничный в мире

В Аризоне, на землях индейцев навахо, находится место, любимое фотографами со всего мира. Каньон Антилопы вы наверняка хоть раз видели на заставке своего компьютера. Microsoft вносила его виды в...

Почему кофе и чай бодрят: взгляд с точки зрения науки

Вы когда-нибудь замечали, что после чашки кофе фокусировка внимания резко обостряется, но уже через полчаса ясность мысли начинает неумолимо угасать? Эти «американские горки» связаны с конкретными...

Как гора выше Эвереста остаётся невидимой: 75% высоты Мауна-Кеа скрыто океаном

Говоря о горных вершинах, достигающих наибольших высот, невозможно не вспомнить об Эвересте. Эта гора возносится в небо на 8848 метров над уровнем моря, и этот рекорд закреплён в школьных учебниках...