Метод дистилляции знаний позволяет создавать эффективные ИИ-модели с минимальными затратами

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Метод дистилляции знаний, разработанный исследователями Google в 2015 году, включая нобелевского лауреата 2024 года Джеффри Хинтона, превратился в фундаментальную технологию индустрии искусственного интеллекта. Этот подход позволяет передавать знания от крупных, вычислительно затратных моделей к меньшим и более эффективным, существенно снижая стоимость их эксплуатации.

Технология привлекла широкое внимание в начале 2025 года, когда китайская компания DeepSeek выпустила чат-бота R1, который демонстрировал производительность на уровне ведущих моделей, но требовал значительно меньше вычислительных ресурсов. Это вызвало резкое падение акций технологических компаний, включая рекордное однодневное падение стоимости акций Nvidia.

Принцип дистилляции основан на концепции «мягких целей», когда большая модель-учитель передает не просто однозначные ответы, а вероятностные распределения для различных вариантов. Это позволяет меньшей модели-ученику усваивать нюансы классификации и принятия решений. По словам Ориола Виньялса, одного из авторов оригинальной статьи и ведущего научного сотрудника Google DeepMind, изначально метод был разработан для сжатия ансамблей моделей в одну более эффективную.

Автор: Quanta Magazine Источник: www.wired.com

Несмотря на первоначальный скептицизм, дистилляция стала стандартной практикой в индустрии. Такие проекты как DistilBERT (уменьшенная версия языковой модели BERT от Google) продемонстрировали практическую ценность подхода. Сегодня Google, OpenAI и Amazon предлагают дистилляцию как коммерческую услугу.

Недавние исследования лаборатории NovaSky Калифорнийского университета в Беркли показали, что дистилляция особенно эффективна для обучения моделей рассуждений с цепочкой мыслей. Их модель Sky-T1 с открытым исходным кодом, обучение которой стоило менее 450 долларов, достигла результатов, сопоставимых с гораздо более крупными моделями.

Энрик Бойш-Адсера из Уортонской школы бизнеса Пенсильванского университета подчеркивает: «Дистилляция — один из самых важных инструментов, которые сегодня есть у компаний для повышения эффективности моделей».

Источник: WIRED

Автор не входит в состав редакции iXBT.com (подробнее »)

Сейчас на главной

Новости

Публикации

Не только большой аккумулятор: подборка смартфонов с высокой автономностью

В наши дни шутки о том, что владельцы смартфонов вынуждены находиться рядом с розеткой, почти потеряли актуальность. Подавляющее большинство современных моделей спокойно доживает до конца суток, а...

✦ ИИ  Инстинкт или проявление любви: почему кошки трутся об ноги и мебель?

Кошки используют разнообразные невербальные сигналы для коммуникации — от положения хвоста до особенностей мимики. Одним из наиболее характерных жестов является трение о людей или...

✦ ИИ  Почему на машинах NASCAR используют наклейки вместо фар? Разбираем две основные причины

Наверняка вы могли слышать про NASCAR — главную гоночную серию в США, знаменитую своей зрелищностью, плотной борьбой и большим количеством аварий. Но обращали ли вы внимание на...

6 приложений-будильников для Android из RuStore, если вы не можете проснуться вовремя

Я из тех, кто утром часто ведёт с собой долгие переговоры — между «ещё пять минут» и «ну теперь точно встаю». Обычный будильник в телефоне со временем перестал помогать. Я начал искать...

Универсальный рабочий свет – обзор необычного фонаря для аккумуляторных батарей инструмента различных брендов

Иногда возникает необходимость сделать освещение рабочего места, а под рукой нет прожектора или нормального фонаря. В такой ситуации выручит вот такой универсальный фонарик, довольно яркий и...

8 ошибок при выборе искусственной елки: как не испортить новогоднее настроение

  • Тематическая подборка
  • Оффтопик
В воздухе уже витает аромат мандаринов, в витринах магазинов мерцают гирлянды, а дома начинают преображаться в ожидании самого волшебного времени года. И вот вы стоите перед важным...