Метод дистилляции знаний позволяет создавать эффективные ИИ-модели с минимальными затратами

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Метод дистилляции знаний, разработанный исследователями Google в 2015 году, включая нобелевского лауреата 2024 года Джеффри Хинтона, превратился в фундаментальную технологию индустрии искусственного интеллекта. Этот подход позволяет передавать знания от крупных, вычислительно затратных моделей к меньшим и более эффективным, существенно снижая стоимость их эксплуатации.

Технология привлекла широкое внимание в начале 2025 года, когда китайская компания DeepSeek выпустила чат-бота R1, который демонстрировал производительность на уровне ведущих моделей, но требовал значительно меньше вычислительных ресурсов. Это вызвало резкое падение акций технологических компаний, включая рекордное однодневное падение стоимости акций Nvidia.

Принцип дистилляции основан на концепции «мягких целей», когда большая модель-учитель передает не просто однозначные ответы, а вероятностные распределения для различных вариантов. Это позволяет меньшей модели-ученику усваивать нюансы классификации и принятия решений. По словам Ориола Виньялса, одного из авторов оригинальной статьи и ведущего научного сотрудника Google DeepMind, изначально метод был разработан для сжатия ансамблей моделей в одну более эффективную.

Автор: Quanta Magazine Источник: www.wired.com

Несмотря на первоначальный скептицизм, дистилляция стала стандартной практикой в индустрии. Такие проекты как DistilBERT (уменьшенная версия языковой модели BERT от Google) продемонстрировали практическую ценность подхода. Сегодня Google, OpenAI и Amazon предлагают дистилляцию как коммерческую услугу.

Недавние исследования лаборатории NovaSky Калифорнийского университета в Беркли показали, что дистилляция особенно эффективна для обучения моделей рассуждений с цепочкой мыслей. Их модель Sky-T1 с открытым исходным кодом, обучение которой стоило менее 450 долларов, достигла результатов, сопоставимых с гораздо более крупными моделями.

Энрик Бойш-Адсера из Уортонской школы бизнеса Пенсильванского университета подчеркивает: «Дистилляция — один из самых важных инструментов, которые сегодня есть у компаний для повышения эффективности моделей».

Источник: WIRED

Автор не входит в состав редакции iXBT.com (подробнее »)

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Гигант среди лососёвых: что известно о самых больших тайменях

У большинства людей лососёвые ассоциируются с чем-то благородным, вкусным и в меру крупным. Но таймень из этого семейства выбивается сразу и безоговорочно. Он не просто большой — он...

Особенности посадки самолётов на палубу авианосца

Посадка военного самолёта на авианосец — это крайне сложный элемент лётной подготовки, который ставит перед пилотом серьёзные профессиональные и личностные возможности. Что останавливает...

Шар размером с пятиэтажный дом в болотах Тверской области: что это, как он туда попал и что с ним сейчас

В лесах на границе Московской и Тверской областей, неподалёку от наукограда Дубна, долгие годы стоял необычный объект, известный просто как Шар около Дубны. Он возвышался посреди заболоченной...

Мозг охладили до −196 °C, а затем полностью восстановили его функции: как ученые впервые перезапустили нервную ткань после глубокой заморозки

Крионика долгое время оставалась уделом научной фантастики и предметом торговли сомнительных стартапов. Проблема заключается в физических свойствах воды. При охлаждении ниже нуля градусов жидкости...

Обзор лазерного дальномера FNIRSI IR40: компактный прибор, который поможет в быту и на работе

Рулетка или всё-таки современные технологии? В этом обзоре я расскажу про компактный дальномер, который по размеру практически сопоставим с зажигалкой. Он получил фирменное приложение для...

Где найти вулканы, гейзеры, медведей и дельфинов, и всё в одном месте

Каждый раз, когда выбираешь, ну или хотя бы планируешь путешествие на светлое будущее, всегда приходится от чего-то отказываться. В одном месте есть пляж и дельфины, в другом красивая природа,...