Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
smartmanyurasov
Комментатор
smartmanyurasov
Рейтинг
+385.30
Автор не входит в состав редакции iXBT.com (подробнее »)
Ты опять намешал в кучу. Мы не обсуждаем стационарные системы. В мобильных устройства процессоры Intel и AMD работают при меньших лимитах и не греются более 70-80 °C, в отличие от эппловских маков с температурами 108 °C.
Даже при половинной нагрузке на GPU в cinebench Macbook на M4 Max разряжается за 1 час.
https://i.ibb.co/f4jMvFM/Screenshot-20241119-061721-01.png
А если нагрузить ещё и CPU — автономность снизилась бы до 30 минут.
Вот только тут нужно сделать два пояснения:
1) Время на скрине указано 65 минут не совсем правда, потому что при снижении батареи до 5% система принудительно ограничивает энергопотребление процессора до 10W, поэтому оставшиеся 15 минут macbook работает в режиме энергосбережения. Если бы система не переходила в режим энергосбережения — macbook разрядился бы именно за 50 минут.
2) Apple ограничивает энергопотребление при продолжительной комбинированной нагрузке на CPU+GPU на уровне 65W.
Если ты будешь тестировать только CPU в cinebench — энергопотребление у CPU будет 65W.
Если будешь нагружать только GPU — он тоже будет потреблять 65W.
Но если ты загрузишь и CPU и GPU — общеее энергопотребление процессора тоже будет 65W.
Дело в том, что при комбинированной нагрузке планировщик для GPU отдаст лимит 50W, а для CPU лишь 15W !
Таким образом Apple искусственно занижает энергопотребление своих устройств ради большей автономности. Без искусственных ограничений автономность будет не более 30 минут.
Вместо того чтобы направить все усилия в доступные портативные устройства с хорошей автономностью, qualcomm с производителями для чего-то делают форм-фактор стационарного компьютера по премиум цене, который пригоден разве что как печатная машинка.
Ведь можно с уверенностью сказать, что прайс за этот хлам заломят дороже, чем за более производительные аналоги на x86.
У меня для вас есть и плохие, и хорошие новости. Хорошая новость: процессоры Intel выходят из строя только те, которые работают с перегрузками по напряжению.
Плохая новость: чипы AMD по статистике умирают даже чаще, причём без перегрузок по напряжению.
Почему я должен сравнивать на встроенной графике, если в ноутбуке есть дискретная видеокарта, которая работает и от сети и от батареи?
M1 Ultra в ноутбуки не ставят, поэтому только по этой причине его нельзя сравнивать.
M1 Ultra годится только для сравнения с серверными процессорами.
Зачем вообще сюда приплетать всяких франкенштейнов?
Ты не хочешь понять, что у процессоров Apple фиксированный лимит ТДП, а у x86 — он плавающий.
То есть один и тот же x86 процессор может при одном лимите иметь энергопотребление 250W, при втором лимите 125W, при третьем 65W и при четвертом лимите 35W. От выбранного лимита будет зависеть производительность.
Давай сначала проясним производительность и энергопотребление эппловских чипов в Cinebench r23:
(65W) M4 Max — 27500
(55W) M3 Max — 24000
(36W) M2 Max — 14800
(29W) M1 Max — 11200
>>
А теперь сравним на примере одного x86-процессора Ryzen 9 7945HX при разных лимитах в этом же тесте:
(65W) — 28000
(55W) — 26598
(35W) — 19500
https://i.ibb.co/PC1bGn2/R9-7945-HX-power-4.png
То есть Apple смогла только к 2025 году догнать по энергоэффективности производительности x86 процессор AMD, который производится по менее энергоэффективному техпроцессу!
Когда AMD начнет производить свои процессоры по 3 нм. техпроцессу — яблоко опять сольётся.
Если разобраться, то представление об «непревзойдённой» энергоэффективности чипов Apple поменяется на противоположное. Но кто будет в этом разбираться, если население давно оболванено и сегодня все смотрят обзоры только ручных блогеров яблока?
Ничего подобного. Уже писалось, что Apple тесно сотрудничает с разработчиками Blender для оптимизации своих процессоров. И Blender ещё 3 года назад выпустил нативную версию с поддержкой Metal для Apple Silicon.
https://www.blendernation.com/2021/12/14/cycles-gets-metal-gpu-backend-for-apple-silicon/
Intel никуда не слился, не преувеличивай. Они плюс-минус одинаковые в зависимости от подтеста. Просто они в таблицу вставили подтест «monster», а там несколько сцен.
Вот, например, сцена BMW
i9-12900K — 1 мин 25 сек
M1 Ultra — 1 мин 43 сек
https://i.ibb.co/WDNMFkQ/Screenshot-20241226-031148-01.png
То есть M1 Ultra рендерил сцену «BMW» на 15% дольше.
А сцену «monster» на 10% дольше рендерил i9-12900K.
Всё зависит от конкретной сцены и в целом у них плюс-минус одинаковая производительность.
Но здесь, во-первых, нужно учитывать факт нечестного сравнения, потому что у M1 Ultra 20-толстых ядер, а у i9-12900K — лишь 8-штук !
Во-вторых, мы говорим о мобильных устройствах с батареями, а M1 Ultra никогда не ставили в ноутбуки.
Ведь понятно, что в стационарном устройстве можно сделать любую производительность.
Macbook Pro (M1 Max) под нагрузкой от розетки потребляет 145W и разряжается за 50 минут.
Винбуки даже в связке с дискретной видеокартой RTX 4060/4070 работают дольше при производительности в 2 раза больше.
Какие после этого можно делать выводы?
Где это Intel так греется? Мы говорим о производительности и автономности в ноутбуках, а не о стационарном устройстве Mac Studio за $10.000!!!
На x86 компиляция будет работать аналонично лучше.
Абсолютно все поколения чипов яблока М1, М2, М3, М4 греются до 108 °C даже с активным охладом! Ты и этого оказывается не знал.
Никакой там энергоэффективности нет вообще даже у младших чипов: Macbook Pro 14 на (M4) под нагрузкой проработал всего 1 час. 31 мин.
На скрине тест в Blender идёт на CPU, видеркарта не используется! Кроме того, это лишь один из подтестов. В одних подтестах быстрее один чип, в других подтестах получается наоборот.
Сам ты в танке. Blender уже как 5 ЛЕТ полностью нативный для Apple Silicon !
Это совершенно разные процессоры с разной производительностью:
https://i.ibb.co/0C8sRWj/Screenshot-20241225-224959-01.png
Я ничего такого тебе не предоставлял, где М1 нагнул RTX 3090
В Blender на GPU даже M1 Ultra в 5 РАЗ сливает старой дискретке, а M1 Max — в 8 раз.
https://i.ibb.co/fCVRTyv/t9zut1o495o81-1.webp
И повторяю ещё раз, что Blender уже как 5 лет нативный для Apple Silicon.
P.S. Сравнивать нужно именно с M1 Max, потому что M1 Ultra — это два склеенных процессора из M1 Max.
Ведь я же тебе не привожу тесты x86 в двухсокетных материнках, как и тесты видеокарт в режиме SLI?
Разработка Grand Theft Auto VI началась в 2014 году.
Так ведь в прошлый раз был неудачный? Потому и сделал новый разъём. Тем более ТДП растет.
Даже если так — онг того стоит, потому что чипы умирают за пару лет именно из-за расширения каналов от высоких температур.
Вся информация есть в интернете.
США не на Луне высадились, а сфальсифицировали высадку в павильонах на Земле. Эта халтура уже давно разоблачена кучей специалистов.
Ты всё пытаешься смешать в одну кучу. В давинчи, премьер и других редакторах при нагрузках работает и CPU, и для ускорения GPU, плюс куча обвесов проприетарных кодировщиков яблока !
Так сравнивать нельзя. Когда мы говорим о поддельных тестах в geekbench на CPU, не нужно приплетать к ним смешанные тесты с GPU и всяких аппаратных кодировщиков.
Я просто тебе ещё раз говорю, что как только конкуренты догоняют чипы яблока в тестах — как тут же geekbench выпускает новую версию, в которой чипы эппла улетают вперед на 30% минимум.
Вспомни, что Тим Кук говорил при переходе на свои чипы? Он сказал дословно: переход на apple silicon обусловлен тем, что intel утратила лидирующие позиции и не способна сделать конкурирующий продукт. Также он добавил, что теперь пользователи macbook получат намного большую производительность при в разы большей автономности.
Но ни первого ни второго пользователи не получили. Что было по тестам все эти годы? Apple M1 Max в два раза сливал процессорам Intel и AMD.
https://i.ibb.co/gzMGXSC/Screenshot-20241225-023431-2-01-01.png
А когда через год вышел i9-13900K он прибавил ещё около 40% чистой мощи на ядрах CPU. Что оставалось делать яблоку, когда ее процы сливали во всех тестах ?
А вспомни как яблоко наврало, что GPU — M1Ultra производительнее настольной RTX 3090? А в реальности во всех играх, рендерах и любых приложениях там была 5-кратная разница не в пользу яблока.
https://i.ibb.co/fCVRTyv/t9zut1o495o81-1.webp
Там ещё новости выходили разоблачающие обман, что на самом деле M1 Ultra равен лишь затычке RTX 3050
Прошло 5 лет и ничего не изменилось. Да, последний M4 Max догнал по производительности M1 Ultra пятилетней давности и теперь такая производительность стала доступна в ноутбуках, ведь M1 Ultra был доступен только в стационарном виде. Но конкуренты тоже все эти годы не сидели сложа руки.
В премьере, давинчи и других прогах показывают превосходство эппловских процев только в тех задачах, где работают аппаратные кодировщики яблока.
А вот если делают реальную нагрузку на CPU или GPU в рендерах, цветокоррекцию, набрасывают эффекты (особенно в 10-bit) — то яблочные чипы сразу же сливают даже бюджетным видеокартам. Ну то есть разница получается как в реальных играх.
Или ты не видел как на презентации M2 Max эппл подделала результаты тестов в рендере OctaneX, заявив, что M2 Max в два раза производительнее M1 Ultra ?
https://i.ibb.co/Qm7GStW/Screenshot-20230615-142135-01.png
Ты сам то в теме о этих процессорах? И ведь дураки поверили в этот бред, пока не вышли настоящие тесты:
https://i.ibb.co/wJYyzfx/Octane-X-bench-render-05.png
Теперь понимаешь, какими методами яблоко продвигает свою продукцию?