Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Потому что лучше, потому что это первое версия, а другие будут лучше, потому что это спецы в штате, потому что это интеграция и оптимизация, потому что у конкурентов нет аналогов Private Cloud Comput!
Тут Reuters пишут что обучали модель на TPU от Google — https://www.reuters.com/technology/artificial-intelligence/how-apple-used-googles-help-train-its-ai-models-2024-06-11/
Там две модели, одна локальная, вторая на серверах уровня GPT 3.5.
We compare our models with both open-source models (Phi-3, Gemma, Mistral, DBRX) and commercial models of comparable size (GPT-3.5-Turbo, GPT-4-Turbo)1. We find that our models are preferred by human graders over most comparable competitor models. On this benchmark, our on-device model, with ~3B parameters, outperforms larger models including Phi-3-mini, Mistral-7B, and Gemma-7B. Our server model compares favorably to DBRX-Instruct, Mixtral-8x22B, and GPT-3.5-Turbo while being highly efficient. — https://machinelearning.apple.com/research/introducing-apple-foundation-models
Ну в DGX B200 тоже АРМ стоит
Громкие угрозы Медведева в ТГ ?We compare our models with both open-source models (Phi-3, Gemma, Mistral, DBRX) and commercial models of comparable size (GPT-3.5-Turbo, GPT-4-Turbo)1. We find that our models are preferred by human graders over most comparable competitor models. On this benchmark, our on-device model, with ~3B parameters, outperforms larger models including Phi-3-mini, Mistral-7B, and Gemma-7B. Our server model compares favorably to DBRX-Instruct, Mixtral-8x22B, and GPT-3.5-Turbo while being highly efficient. — https://machinelearning.apple.com/research/introducing-apple-foundation-models
Так не кто и не купил, но бизнес растет и будет выпускать аж по одному процу каждый год! И они доступны чуть ли не каждом облаке, логика?