Автор не входит в состав редакции iXBT.com (подробнее »)
avatar

А в серфинге на одинаковой яркости
Asus: 858 min
Mac: 1073 min //+3.5 часа

Это тоже неправда, потому что при сравнении iPS с OLED не может быть никакой одинаковой яркости. Даже если взять macbook и вывести на нем яркость 500 нит — он всё равно будет на 50% тусклее ноутбука с экраном OLED, у которого максимальная яркость на бумаге 400 нит. Вот картинка прямого сравнения при выводе максимальной яркости у обоих ноутбуков.
https://i.ibb.co/7Ykbjw3/Galaxy-Book-vs-Macbook-001-2.png
avatar

Asus:Center on Battery: 374 cd/m²
Mac: Center on Battery: 638 cd/m²
© Источник

Яркость замеряют при выводе белого поля, а OLED экраны в таком режиме снижают яркость на 30%.
Тест автономности проходил при серфинге и яркость Asus в таком режиме зрительно заметно выше, чем у macbook.
Можете сами сравнить максимальную яркость ноутбука с экраном OLED и убедитесь, что он намного ярче экрана macbook.
Так что даже в таком нечестном режиме Asus показал автономность на 55% лучше.
Если выставить равную яркость на глаз — Asus проработает ещё на 15-20% дольше.
Так что все эти тесты автономности у маков — халтура.
avatar
А что его ждать? Бери — https://www.apple.com/ch-fr/shop/buy-mac/macbook-pro/16-pouces-noir-sid%C3%A9ral-verre-d%E2%80%99%C3%A9cran-standard-puce-apple-m4-max-avec-cpu-16-c%C5%93urs-et-gpu-40-c%C5%93urs-48-go-de-m%C3%A9moire-1to

Зачем мне он? Он мне и за полцены не нужен.
Ты же его так ждал и хотел? Или так и будешь до конца жизни сидеть на дохлом М1?
avatar
Зачем эпл заявлять 20% прирост производительности, если cinebanch позволяет рисовать +100%?

Во-первых, потому что они не могли на презентации скрыть реальное количество блоков.
А вот маркетинговый отдел работает независимо, именно поэтому в каждой компании создаются отделы для продвижения в своей сфере. Если кто придерется или поймает на фальсификации — всегда можно свалить вину на ошибки в другом отделе и компания сможет сохранить своё лицо.
Но факт то остаётся фактом: производитель говорит о приросте по графической производительности на 20% — и все бенчи это подтвердили. А какой-то один тест решил нарисовать 100% прирост. Этого не может быть по всем законам физики, так как производитель не заявлял о таком приросте.
Тем более у яблока куда более производительные чипы сливают в cinebench GPU

https://i.ibb.co/pW58bnx/Screenshot-20230908-013041-2.png

А если у более производительного M1 Ultra результат около 6000 баллов, то M3 Max никак не может показывать производительность 13000 имея меньше графических блоков даже при более высокой частоте.
Просто после выхода M2 Max в сети на западных форумах пользователи никто уже не верил тестам geekbench и 3dmark и смотрели тесты только в cinebench и blender, поэтому яблоко было вынуждено сфальсифицировать результаты в этих тестах для нового чипа M3 Max в категории GPU.
Подделывать повторно тесты для CPU они отказались по той причине, что до этого на этом уже подловили geekbench, когда они в 5 версии своего теста скрутили результаты у всех конкурентов в два раза больше, чем скрутили их для чипов эппла.
К тому же с выходом M3 Max производительность процессорных ядер стала вполне приличной и он не нуждался в дополнительных фальсификациях.
avatar
Вы знаете что такое микроарзитектуры? Или ааши познания в железе ограничиваются ядрами, блоками и частотами?
.
Объясните ка мне, как RX 7600 может быть в 4 раза мощнее RX 6600 и в 1,5 раза мощнее RX 6950 XT?
https://club.dns-shop.ru/digest/108192-45-videokart-nvidia-amd-i-intel-protestirovali-v-neiroseti-stab/?utm_referrer=https%3A%2F%2Fyandex.ru%2F
Там же нет никакого четырёхкратного прироста по количеству вычислительных блоков! Так откуда?
Тоже скажите, что это проплаченная подделка для дурачков?

Потому что разработчики не адаптировали программное обеспечение нейросети Stable Difussion под старую архитектуру RDNA 2. Они бещают в будущем это исправить.

А вот яблоко использует во всех своих продуктах унифицированные блоки одной архитектуры на протяжении уже 5 лет, поэтому набор инструментов там одинаковый для всей линейки процессоров эппла. С первых дней перехода на ARM разрабы прям из кожи лезут пишут нативные бенчи под яблоко. С чего это вдруг? Понятное дело что за всё им заплатили, иначе никто бы и пальцем не пошевелил.
И мы говорим не о тестах в нейросетях.
Повторяю, что все процессорные и графические ядра у яблока везде одинаковые и не менялись на протяжении всех лет. Так что это не отменяет факт подтасовки результатов.
avatar
серверные процы всю жизнь были слабее десктопных топов

Когда это такое было нормой? Каким образом 96 ядер Zen 4 могут быть слабее 8 или 16 ядерного топа? Такое может быть только в кривом гикбенче.
avatar
То есть блендер уже не канает?

Вы видели сравнение в рендере Blender на GPU у M2 Max, M3 Max и M2 Ultra ???

https://i.ibb.co/sWWpRND/Screenshot-20231108-012459-01.png

Когда это GPU у M3 Max успел стать в 2 с лишним раза производительнее чем M2 Max ?
И когда это GPU M3 Max стал на 40% производительнее чем у M2 Ultra ?
Ну это же окровенная подделка для дурачков!
Для понимания проблемы приведу немного хроники: Apple представила M2 Max в начале 2023 года, но из-за того что он оказался намного слабее конкурентов покупатели потеряли интерес и продажи маков рухнули. После этого яблоко через несколько месяцев решила выкатить M3 Max. Только вдумайтесь, Apple за полгода дважды обновила всю линейку процессоров!
Вот только M3 Max в реальности предлагал лишь немного улучшенную производительность, чего было недостаточно для привлечения внимания покупателей, именно поэтому пришлось подделать тесты! Ведь если бы Apple в бенчах оставила реальный прирост всего 20%, то никто бы на такое не клюнул, а так купленные разрабы просто нарисовали фейковые циферки.
Так что для тестов в Blender яблоко вовремя подсуетилась, но от этого эти цифры не перестают быть фейковыми. Мы же с вами прекрасно знаем, сколько графических ядер было добавлено, на сколько подняли частоту и поэтому прекрасно понимаем, что такого прироста там физически просто не может быть !
Так что про поддельные тесты в Blender тему можно закрыть, потому что в них яблоко просто поймали за руку на махинациях.
У меня такое ощущение, что в Apple работают либо наркоманы, либо там реально держат весь остальной мир за полных идиотов.
Теперь что касается OctaneX. Это не я вам кидаю этот тест, это яблоко его продвигало и скрин этот с официального сайта Apple! Но позже выяснилось, что эти тесты в OctaneX подделка для расширения стада овец!
avatar
какой конкретно дорогущий 96-ядерник в нем слабее дешевого 8-ми ядерника?

https://browser.geekbench.com/v6/cpu/compare/9187478?baseline=8725777
avatar
Опять этот фейковый гикбенч, в котором дорогущие 96-ядерные процы слабее дешевых 8-ядерников.
avatar
Я все же больше жду складной 20 дюймовый iPad / MacBook!

Так ты же так ждал-ждал M4 Max, и решил теперь отказаться?
avatar
Проц за сотку, экран 50.
Можно посмотреть документы стоимости комплектующих? Скинь пожалуйста

О цене процессора писали здесь.
avatar
Проц за сотку, экран 50.

Процессор Snapdragon 8 gen 3 оценен в 200 долларов.
Экран стоит около 100 долларов.
avatar

К примеру интел? Еще и не признавали проблемы!!! There is no fix for Intel’s crashing 13th and 14th Gen CPUs — theverge.com/2024/7/26/24206529/intel-13th-14th-gen-crashing-instability-cpu-voltage-q-a

Проблемы Интел были связаны с перегрузками по напряжению из-за неправильных настроек напряжения в биос, а также с превышением лимитов самих производителей материнских плат.
При этом, как выяснилось, у АМД проблем с выгоранием процессоров даже больше и без превышения лимитов.
avatar
Не знаю откуда вы эти скрины взяли

Все скрины из открытых источников и обзоров с ютуба.
Что касается 14900, то это тот же самый 14900К. Разница между ними лишь в частотах.
Рендеры и любые тесты на яблочных чипах все поддельные, и это уже давно доказано. Просто из-за проблем с обвалами продаж маков и потери миллиардов долларов яблоко было вынуждено начать подделывать тесты. Вспомните на презентации M2 Max что показывала эппл в рендере OctaneX?

https://i.ibb.co/Qm7GStW/Screenshot-20230615-142135-01.png

Не замечаете ничего странного? Когда это графика M2 Max успела стать в 2 РАЗА производительнее M1 Ultra?
А вот вам реальность:

https://i.ibb.co/wJYyzfx/Octane-X-bench-render-05.png

И на таком откровенном обмане в последние годы эппл подлавливали неоднократно.
Теперь понимаете масштаб проблем и каков размах вранья стал исходить от яблока после обвалов продаж маков? Сделать лучше x86 невозможно, поэтому дешевле подкупить нищих разрабов бенчей. Именно поэтому geekbench постоянно и подкручивает циферки в пользу яблочка, так как по факту вся мощь ARM — это мыльный пузырь.
avatar
Просто невероятно. Один проц и экран имеют себестоимость $300, а тут целый смартфон!
avatar
эппл нужно сделать идеальный продукт, который будут покупать десятками миллионов, а не сырой концепт с кучей до сих пор нерешенных недостатков, как у других производителей. Поэтому лучше мудрить, чем спешить.

Это у каких производителей там «сырые» продукты?
avatar
А есть примеры этой нагрузки? Только cpu или gpu часть? Что за абстрактные цифры и понятия «половинная нагрузка», «высокая нагрузка». На ixbt есть тесты ноутов на ultra 5/7 и SoC apple. Нет ни одного один примера, где ноут на x86 с одинаковой яркостью и нагрузкой работает дольше.

На маках яблоко при любых продолжительных нагрузках устанавливает ограничение потребления процессора на уровне 65W.
Лишь для кратковременной нагрузок доступно общее энергопотребление чипом 120W. Сделано это специально в маркетинговых целях для демонстрации производительности в бенчах. При работе чипа под высокой нагрузкой свыше двух минут производительность искусственно ограничивается со 120 до 65W.
Поэтому и получается всегда на маках половинная нагрузка.
А потом в обзорах нам будут рассказывают сказки продажные блогеры про «непревзойдённую» автономность ARM, и что на макбуках производительность не снижается как на винбуках.
avatar
Блок камер выглядит некрасиво. Электробритва смотрелась намного лучше.
avatar
Вывод: надо брать М1 или М2.

У них автономность принципиально не отличается от М4. Если сравнивать прошки с экранами 120 Гц — все работают серфинге плюс-минус до 7 часов. В режиме видео до 9 часов.
При максимальной нагрузке на проц — выходит полтора-два часа.
avatar
А на нормальной, чтобы можно было читать, а не выжигать глаза?
У макбука максимальная яркость вдвое больше (1000 vs 400)

Тестировали при максимальной яркости в SDR — 600 нит, которая у Asus выше.
У меня телевизор работает при такой яркости и всё равно временами кажется тускло при работающей люстре, а днем при свете солнца картинка и вовсе блекнет и приходится зашторивать окна. Так что с какого перепугу от 600 нит там можно выжечь глаза? Любой современный даже нефлагманский смартфон имеет яркость 600 нит, запустите сейчас на нем видео и убедитесь, что даже в темноте смотреть комфортно. Если я при просмотре сериала Стар-трека снижаю яркость до 400 нит — картинка получается тусклая с завалами.