Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Слушай, тебе просто не хватает честности признать очевидное: Apple создала инженерное чудо!
Apple за 5 лет совершила революцию, создав архитектуру, которая уничтожает Intel и AMD в производительности на ватт. M4 Max — это не игровая карта, это универсальный процессор, который попутно делает то, на что у Nvidia уходит 175W TDP. И делает это в тонком корпусе без звука реактивного двигателя. :)


>47 фпс.
Нет
— https://www.reddit.com/media?url=https%3A%2F%2Fpreview.redd.it%2Fm4-max-40c-gpu-cyberpunk-2077-ultimated-edition-apple-v0-gnlinpzn3ndf1.png%3Fwidth%3D3456%26format%3Dpng%26auto%3Dwebp%26s%3D6e1c1a0b51d212d2813aacd4ede0a0c7443358da


>RTX 4080
Apple M4 Max в тонком корпусе демонстрирует эффективность 0.45 fps/Вт в Cyberpunk 2077, что сопоставимо с 60-ваттной RTX 5070 Laptop (0.67 fps/Вт). RTX 4080 потребляет в 3 раза больше энергии — около 110-175 Вт только для GPU.


>Notebookcheck
Твой же Notebookcheck говорит:
The selection of games for macOS is still limited compared to Windows, but native titles run very well on the M4 Max and the gaming performance is comparable to the mobile GeForce RTX 5060 or slightly slower versions of the mobile GeForce RTX 5070. The M4 Max does not have any issues with limited VRAM though, because the GPU can simply access the system memory. — https://www.notebookcheck.net/Cyberpunk-AC-Shadows-on-Apple-s-M4-Max-Gaming-performance-comparable-to-the-RTX-5060-Laptop.1166765.0.html

avatar
Во-первых, про «фейспалм» и болиды.
Смешно видеть, как человек не понимает сути аналогии. Болид Формулы-1 не имеет кондиционера не потому, что инженеры «забыли», а потому что лишний вес убивает эффективность. Apple выкинула устаревший хлам (вроде поддержки 32-битных приложений или legacy-портов) именно ради того, чтобы архитектура летела, а не ползла, обвешанная костылями совместимости, как Windows-ноутбуки.


Во-вторых, про FP16 и «упрощенный пресет».
Ты пишешь так, будто переключить тумблер на FP16 в Windows — это магия. Нет, это не «просто пресет».
В архитектуре Apple Silicon (Unified Memory) работа с FP16 вшита на аппаратном уровне через Neural Engine и GPU, что позволяет экономить пропускную способность памяти, которой у M-чипов и так в разы больше, чем у потребительских PC. На твоей «любой видеокарте» включение FP16 часто либо не дает прироста из-за ботлнека шины, либо ломает картинку. У Apple это работает нативно и эффективно, потому что софт и железо пилились друг под друга, а не собирались из того, что было на складе.


В-третьих, про Radeon 780M.
Серьезно защищаешь встройку? 780M — это отличный чип… для бюджетной консоли.
Сравнивать его с M-серией — это как сравнивать мопед с электрокаром. M3/M4 Pro унижают 780M по производительности на ватт. 780M жрет до 54 Вт, чтобы выдать то, что базовый M3 делает на 15 Вт. А если взять M4 Max, то он вообще в другой лиге, конкурируя с дискретными RTX 4080 Laptop, при этом оставаясь в тонком корпусе.
— https://nanoreview.net/en/gpu-compare/radeon-780m-vs-apple-m3-pro-gpu-18-core


И финальный гвоздь — про «112 Вт в Cyberpunk» и парк.
Ты выдернул экстремальный пример: запуск неадаптированной игры через слои трансляции (Rosetta + GPTK) на топовом чипе M4 Max в режиме High Power. Да, если заставить процессор перемалывать чужой код через эмулятор, он будет греться. Это физика.

avatar
А давай еще посмеемся над тем, что в болидах Формулы-1 нет кондиционера и подстаканников, тоже ведь «упрощения» ради производительности! 🤣
Ты так пренебрежительно пишешь про FP16, будто это какая-то китайская подделка под «настоящие цифры». Весь современный ML и нейронки, на которых держится мир, крутятся на FP16/BF16, но диванные эксперты всё еще верят, что «настоящий графон» это когда видеокарта жрет электричество как сварочный аппарат и греет комнату вместо батареи.
И про 780M ты, конечно, загнул красиво. Только вот Radeon 780M выдает эти кадры, захлебываясь в троттлинге и воя кулерами как раненый бизон, пока MacBook на M-чипе делает то же самое абсолютно бесшумно, работая от батарейки в парке. Это не «упрощенный пресет», это называется инженерная эффективность. Но владельцам виндовс-ноутбуков, которые живут у розетки, этого не понять — у них своя атмосфера, душная и шумная.
avatar
Хотят чтоб Google свой Gemini засунул и платили ФФ денежки!
avatar
Как и любой LLM / ИИ лабе ему нужны деньги, вот он их и ищет…
avatar
Отличный, хорошо что не пошли не по дороги соски как у Galaxy Fold
avatar
Молодец, заработал на «батуте» :)
avatar
5.2 Pro чуть лучше, но Google все еще впереди!


С ценами через api вообще охереле…

avatar
Утверждение 1: Компании обмануты ARM и зря поверили в «производительность на ватт на доллар» ARM
Это неверно. Множество компаний и облачных провайдеров на самом деле получили реальную экономию энергии и средств при переходе на ARM. Например, Amazon (AWS) отмечает, что многие клиенты и партнёры достигли существенного прироста производительности на доллар при переходе на инстансы на базе Graviton2/3/4. Так, компания Ascend Money после миграции своих Hadoop/Spark‑нагрузок на Graviton2 сообщила о 40% выигрыше по «производительность/цена» и 20% снижении стоимости экземпляра при том же ПО [1]. Абли (Ably) отмечает «до 40% более высокую производительность на доллар» с Graviton [2] Подобные примеры приведены и в других кейсах AWS


Кроме того, компания Oracle провела сравнение своей службы big data (Apache Spark) на ARM‑инстансах Ampere A1 и стандартных x86‑инстансах. В результате получили до 50% лучшую производительность на доллар при использовании ARM.[3]
Это подтверждает, что низкое энергопотребление ARM‑чипов (благодаря фиксированной частоте и архитектуре без наследия) вкупе с высокой плотностью ядер даёт реальный выигрыш по ТCO. Архитектурные особенности ARM‑процессоров (например, большой общий кеш, постоянная частота всех ядер) обеспечивают стабильную производительность и низкое энергопотребление. Так, Ampere Altra (80 ядер, 3.3 ГГц) в тесте SPECint2017 показал на 9% более высокую производительность и на 16% меньшее энергопотребление, чем 64‑ядерный AMD EPYC 7742 (225 Вт). [4]
Это значит, что при нагрузках типа SPECrate Амперный ARM выдаёт более высокий результат при значительно меньшем энергопотреблении.
Наконец, в суперкомпьютерном мире ARM-дизайны лидируют по энергоэффективности. Так, японский суперкомпьютер Fugaku на базе ARM‑процессоров Fujitsu A64FX установил рекорд по энергоэффективности: ~16.9 GFLOPS на ватт при решении задачи линейной алгебры [5]
Вывод: компании мигрировали на ARM не из-за «обмана», а из-за реальных преимуществ ARM‑процессоров по энергоэффективности и стоимости вычислений. Независимые и OEM‑тесты показывают, что современные ARM‑чипы зачастую дают выше производительность на ватт и на доллар, чем конкурирующие x86
Утверждение 2: Ни одна из компаний не представила ARM‑процессор, сравнимый по производительности с x86
— Amazon (AWS Graviton4): новая 96‑ядерная ARM‑СPU Graviton4 (Neoverse V2, Armv9) в тестах показала производительность на уровне (и во многих сценариях — лучше), чем современные Intel Xeon Sapphire Rapids и AMD EPYC Genoa. Как пишет Phoronix, Graviton4 при тех же vCPU «примерно соответствует производительности Intel Sapphire Rapids и может потягаться с AMD Genoa» [6]. Грубо говоря, кластер из Arm‑ядер AWS уже сравним с x86‑кластером по большинству серверных задач.
— NVIDIA Grace CPU: специализированный ARM‑CPU для суперкомпьютеров. Модель Grace Superchip (2×72 Arm Neoverse V2, 144 ядер) имеет двухчиповую упаковку и TDP 500 Вт с памятью. Она входит в суперкомпьютеры Top500 (в 2025 году, например, №8 «ALPS» в Цюрихе с Grace + Hopper) с пиковыми 434.9 Pflops. Таким образом, ARM‑ядра NVIDIA в связке с GPU обеспечивают выдающуюся вычислительную мощность, сравнимую с топовыми x86-системами.
— Google (Axion): Google анонсировала свой первый ARM‑CPU «Axion» (Armv9 Neoverse V2, до 72 ядер) для Google Cloud. Свою новую линейку Axion‑инстансов Google заявляет как дающую «до 50% больше производительности» и «до 60% лучшей энергоэффективности» по сравнению с текущими x86-инстансами!
— Microsoft: хотя у Microsoft нет собственного ARM‑CPU, она активно поддерживает ARM-решения (Windows on ARM, Azure on ARM). В Azure тоже появились ARM‑инстансы на базе Ampere Altra. Кроме того, на устройствах Surface использованы ARM-процессоры Qualcomm (серия SQ), которые по части энергоэффективности конкурируют с x86‑ноутбуками.
В каждом из примеров ARM-процессоры либо уже достигли, либо заявляют о сравнимых с x86 уровнях производительности, часто выигрывая при этом в энергоэффективности.
Утверждение 3: ARM-процессоры уже достигают энергопотребления 400 Вт
Существуют отдельные редкие решения на ARM с очень высокой мощностью, но это не правило для архитектуры в целом. Действительно, новый 192‑ядерный CPU AmpereOne A192 заявлен с максимальным TDP 400 Вт. Однако стоит отметить, что это экстремальный пример – процессор на 192 ARM‑ядра для высокоплотных серверов и AI-инференса. Большинство современных ARM-CPU потребляют значительно меньше:
— NVIDIA Grace CPU Superchip (2×72 ядра, 500W вместе с памятью)
— Ampere Altra Q80-33 (80 ядер) имеет TDP порядка 150–210 Вт
— Ampere Altra Max M128-30 (128 ядер) имеет TDP ~250–270 Вт
— AWS Graviton3 (64 ядра) потребляет лишь ~45–50 Вт
— Apple M1/M2 для сравнения — около 20–30 Вт в нагрузке
Таким образом, в типичных применениях ARM-процессоры демонстрируют гораздо более низкое энергопотребление, чем 400 Вт. Заявленные 400 Вт достигаются только в крайне «вычислительно насыщенных» чипах (AmpereOne) или при суммарном учёте питания памяти (Grace). С учётом производительности на ядро и количества ядер, эти чипы всё равно часто выходят вперед по эффективности (FLOPS/Вт) по сравнению с ближайшими x86-аналоги.
Утверждение 4: ARM-процессоры в целом значительно уступают x86 по производительности
Серверные/кластерные бенчмарки. Как уже упоминалось, Ampere Altra может конкурировать с лучшими x86 CPU. В SPECrate2017 Altra Q80 показала чуть большую общую производительность, чем EPYC 7742, при гораздо меньшем энергопотреблении.
Реальные прикладные нагрузки. При практических задачах типа баз данных, веб-сервисов, аналитики, видео‑ и аудио‑кодирования результаты ARM тоже впечатляют. Например, Oracle/Ampere в тестах Spark (большие данные) получили преимущество ARM над x86 (см. выше). AWS-клиенты сообщают о реальных ускорениях (Aerospike – до 6× пропускной способности на Graviton4 по сравнению с предыдущим поколением Intel). Кампания Ansys зафиксировала ~30–35% прироста скорости расчётов на Graviton3 против предыдущего x86‑обозначения. Даже в пользовательских приложениях на ARM‑ноутбуках Apple M1/M2 получили много высоких оценок за скорость на ядро при низком энергопотреблении (сторонние тесты показывают, что M1 Pro/Max часто обгоняют Intel Core i9/HEDT в бенчмарках на один поток при потреблении ~20–30 Вт).
Суперкомпьютеры и HPC. Хотя в настоящее время среди Top500 преобладает x86, ARM-проекты занимают высокие места. Fugaku (ARM A64FX) уже в 2020 был №1 в мире по Linpack и лидером Green500!


В итоге, ARM не «значительно уступает» x86 – он предлагает альтернативный путь: больше ядер и меньший TDP. В многих сценариях ARM-чипы показывают не хуже, а то и лучшее сочетание «сырых вычислений и эффективности».
ARM‑процессоры не являются «слабым звеном» — они демонстрируют конкурентоспособную производительность и во многих случаях превосходят x86 по энергоэффективности. Справедливее сказать, что ARM догнал x86 в производительности при существенно меньшем энергопотреблении, и его потенциал растёт. Собственно поэтому крупнейшие компании (AWS, Oracle, Google, NVIDIA и др.) активно инвестируют в ARM‑проекты и выводят на рынок мощные ARM‑процессоры!


[1] — https://aws.amazon.com/fr/ec2/graviton/customers/#:~:text=%E2%80%9CWe%20crunch%20a%20huge%20amount,further%20our%20goal%20of%20enabling
[2] — https://aws.amazon.com/fr/ec2/graviton/customers/#:~:text=%E2%80%9CWe%20migrated%20a%20majority%20of,%E2%80%9D
[3] — https://blogs.oracle.com/cloud-infrastructure/price-performance-big-data-workloads-ampere-a1#:~:text=,better%20than
[4] — https://amperecomputing.com/en/blogs/energy-efficiency-of-ampere-altra-running-modern-cloud-workloads#:~:text=The%20power%20efficiency%20of%20Ampere,own%20TCO%20model%20and%20their
[5] — https://www.fujitsu.com/global/about/resources/news/press-releases/2019/1118-02.html#:~:text=This%20performance%20measurement%20demonstrated%20that,1%20watt%20of%20power%20consumption
[6] — https://www.phoronix.com/review/aws-graviton4-benchmarks

avatar
даже новый MacBook на Apple M4

Только новый уже на М5
avatar
How Arm Is Winning Over AWS, Google, Microsoft And Nvidia In Data Centers — https://www.crn.com/news/components-peripherals/2025/how-arm-is-winning-over-aws-google-microsoft-and-nvidia-in-data-centers
avatar
How Apple Dethroned Intel As the World's Most Innovative Chipmaker — https://www.fool.com/investing/2018/05/28/how-apple-dethroned-intel-as-the-worlds-most-innov.aspx
avatar
ARM рвет мир CPU :)
Вот кстати, хорошо об этом рассасывают тут New Largest AI Datacenter — Not a Single GPU Inside — https://youtu.be/N10w1KvFKNQ
avatar
Впечатляет место в топ-5, но это не означает, что всё гладко… сама модель на многих задачах стала заметно хуже, (gpt5 вообще правильный), пользователи жалуются на ухудшение качества и UI (да и скора рекламу завезут).
Трафик, судя по свежим данным, уже падает в некоторых отчётах, рост в прошлом не гарантирует устойчивость. И при этом у партнёров (например, Oracle) проблемы с долговой нагрузкой, что ставит под вопрос масштабирование инфраструктуры и дальнейшие инвестиции.
Так что у “воришки Сэма” на самом деле большие проблемы. А если учесть, что они уже начали заикаться о возможной господдержке, то дела выглядят совсем плохо
В сумме — повода для ликования мало
avatar
Опять местные эксперты будут кричать что все Apple все? :))
avatar
Как боятся, понимают что Apple нагнут рынок :)
avatar
А потом ты проснулся :))
avatar
Вспомнил как свой iPod носил в носке от Apple, молодость!
avatar
Так как я тебя ткнул в правду, теперь ты узнал :))
avatar
I installed top 100 apps: my Android phone contacted Russia and China at night — https://cybernews.com/editorial/android-phone-top-apps-contact-russia-china/


О чем мы вообще говорим если ты в дроиде не имеешь контроль над приложениями?