Apple показывает внутреннее устройство своих ИИ-моделей в официальном отчете

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Компания Apple выпустила технический отчет «Языковые модели Apple Intelligence Foundation — технический отчет за 2025 год», раскрывающий детали архитектуры, обучения и оптимизации своих новых моделей искусственного интеллекта, представленных на конференции WWDC25.

В документе описывается инновационный подход к созданию локальной модели для устройств. Она разделена на два блока: первый содержит 62,5% слоев трансформера, второй — оставшиеся 37,5% без проекций ключей и значений. Такое разделение позволило сократить требования к памяти на 37,5% и уменьшить время вывода первого токена примерно на такую же величину, сохранив при этом качество работы модели.

Для облачной модели Apple разработала собственную архитектуру Parallel-Track Mixture-of-Experts (PT-MoE). Она объединяет концепцию параллельных треков с принципом «смеси экспертов». Модель разделена на несколько параллельных уровней, каждый из которых обрабатывает токены независимо и синхронизируется только в определенных точках. В каждом треке используются слои MoE, активирующие только релевантных «экспертов» для конкретной задачи, что повышает эффективность и скорость работы.

Автор: 9TO5Mac Источник: 9to5mac.com

Значительное внимание в отчете уделено многоязычной поддержке. Apple увеличила объем многоязычных данных с 8% до 30% от общего объема обучающих материалов. Токенизатор расширен на 50% — до 150 000 различных токенов. Тестирование проводилось с использованием запросов от носителей языка, а не переведенных материалов, оценивалась как точность, так и естественность ответов в местном контексте.

Для обучения моделей Apple использовала несколько источников данных: общедоступные веб-данные, собранные с помощью Applebot с соблюдением robots. txt; лицензированный контент от издателей; синтетические данные, созданные для специфических задач; визуальные данные, включающие более 10 миллиардов пар изображений с подписями.

Благодаря новой архитектуре и улучшенным методам обучения, модели Apple обеспечивают более высокую производительность при меньших требованиях к ресурсам, что особенно важно для работы искусственного интеллекта непосредственно на устройствах пользователей.

Источник: 9TO5Mac

Автор не входит в состав редакции iXBT.com (подробнее »)

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Идеальный эспрессо просчитали математически: физики вывели точное уравнение проницаемости кофейной таблетки

Каждое утро миллионы людей запускают сложный физический эксперимент. В небольшой металлической корзине — портафильтре (или, по-простому, рожке) — спрессовывается мелко...

Обзор зарядного устройства GP B423 – как распределяется мощность между слотами

Зарядные устройства для аккумуляторов формата AA и AAA обычно не вызывают особого интереса, пока не начинаешь смотреть, как они реально работают. GP B423 относится к базовому сегменту, но при...

Бозон Хиггса отвечает только за 2% массы видимой Вселенной. Откуда берется остальная?

В современной науке большой разрыв между тем, что мы знаем о мире из экспериментов, и тем, что мы можем доказать математически. Один из самых ярких примеров этого разрыва касается вопроса о том,...

История Wi‑Fi: От алгоритмов радиоастрономии до гигабитных стандартов

Wi‑Fi, который сегодня используется во всём мире, возник благодаря научным исследованиям передачи слабых радиосигналов через шумные и искажённые среды. В конце 1970-х годов инженеры австралийского...

Обзор зарядного устройства VOLTME Revo 140: 140 ватт без компромиссов

Рынок GaN-зарядок сейчас переполнен: каждый второй бренд обещает «революционную» компактность и рекордную мощность, и разобраться, кто из них реально делает качественный продукт, всё сложнее....