Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Всё ещё не 100% доказательство — эппл это аномальный АРМ с дополнительными инструкциями и сопроцессорами. Те задачи, которые дополнительно ускорять таким образом выбраны не пальцем в небо, а на основе какого то анализа пользовательских задач и чисто теоретически они могли угадать верно.
Все бенчи подтвердили, что в синьке r24 для яблочных процев результаты искусственно накрутили. У Apple не было возможности честным путем улучшить производительность, когда конкуренты так сильно ушли вперед. Ты вспомни что говорил Тим Кук в интервью? Он сказал дословно следующее:
1) Intel утратила позиции лидера и неспособна произвести конкурентный продукт !
2) Ещё он добавил, что архитектура x86 себя изжила !
3) Также Тим Кук заявил, что только переход на ARM позволит увеличить производительность и в разы увеличит автономность.
Эти три цитаты нужно запомнить.
По началу всё так и было при выпуске первого М1 с низким потреблением 20-30 Вт. У конкурентов в то время помню были только чипы на 45-65 Вт и при этом они по производительности были хуже. Но когда в 2022 году был представлен M1 Max он потреблял уже свыше 100 Вт от розетки и под нагрузкой разряжал батарею менее чем за 1 час.
Вот тут все поняли что макбуки на ARM потребляют столько же, сколько и потребляли маки на x86. При этом Macbook Pro 2022 года на флагманском M1 Max был не особо быстрее мака 2019 года на Intel.
Cinebench r23 multi-core
Macbook 2022 — M1 Max — 11000
Macbook 2019 — i9-9880H — 9000
То есть за 3 года прогресс составил жалкие 20% и при этом у них было одинаковое энергопотребление и автономность.
При этом у Apple была фора в более энергоэффективном 5 нм техпроцессе против 14 нм у Intel. Специалисты пересчитали и пришли к выводу, что если бы проц Intel производили по 5 нм техпроцессу он бы был намного энергоэффективнее, чем Apple M1 Max.
С тех пор новые процы Apple все стали воспринимать предвзято и без особого энтузиазма.
Но время то шло и Intel с AMD ежегодно наращивали производительность у настольных камней очень сильно, попутно представляя мобильные энергоэффективные процы.
И вот переломный момент для Apple наступил на третий год в 2023 году, когда нужно было показать либо что-то в несколько раз лучше чем было у конкурентов, либо признать поражение. Но кто же будет признавать поражение после такого изнурительного перехода и после траты десятков миллиардов долларов на разработку своих процессоров? Ведь это позор! Ведь Apple поверил весь мир и все тоже кинулись разрабатывать свои камни на ARM! А по факту ARM оказался мыльным пузырём, который даже в бенчах сливал x86. Я уже молчу что в реальной жизни на ARM ничего нормально не работало, а через эмуляцию там ещё и производительность ложилась.
Для Apple разработать процессор производительнее чем у конкурентов нет никаких проблем, даже если на разработку такого процессора уйдёт миллиард долларов — для Apple это копейки и вообще не имеет никакого значения.
Проблема в том, что это не решит проблему, а наоборот ещё сильнее усугубит ситуацию.
Посмотри как наращивалась производительность относительно энергопотребления ?
Cinebench r23 multi-core.
(72W) M1 Ultra — 24.000 score.
(36W) М1 Max — 12.000 score.
(20W) M1 — 7500 score.
Как видишь на каждое удвоение производительности пришлось жертвовать таким же удвоением энергопотребления.
Apple конечно могла бы взять 3 чипа M1 Max и склеить их вместе чтобы получить в cinebench r23 результат 35.000 очей… но ведь это всё равно не помогло бы обойти конкурентов? Потому что 3 чипа M1 Max вместе будут потреблять 100 Вт. И зачем это нужно, если у AMD есть 7945HX, который при лимите 100 Вт в cinebench r23 выдает под 35.000 очей. Причем проц AMD в производстве обходится в 6 раз дешевле его размер кристалла 264 mm², а проц M1 Max имеет площадь кристалла 500 mm² — то есть 3 таких проца будут иметь площадь кристалла 1500 mm²! Это почти в 6 раз больше. Я понимаю, что сравнение не корректно, потому что у M1 Max есть на кристалле еще GPU. Но опять же по тестам в Blender и в играх GPU M1 Max слабее чем RTX 3050
Blender
RTX 3060 Ti — 2700
RTX 3050 — 1041
M1 Max — 956
Вот приведу ещё пример на игре, которую специально делали нативно для процессоров Apple.
Resident Evil Village (4K/High)
RTX 3060 Ti — 67 fps.
M1 Max — 25 fps.
То есть нужно 3 процессора M1 Max чтобы они работая вместе сравнялись в тестах и играх с одной RTX 3060 Ti.
Размер кристалла RTX 3060 Ti — 392 mm²
Теперь если сложить размеры кристаллов Ryzen 7945HX и RTX 3060 Ti у нас получится вот что: 264 mm² + 392 mm² = 652 mm² !
То есть общий размер кристалла Ryzen 7945HX и RTX 3060 Ti был бы всё равно в 2,5 РАЗА меньше, чем у трёх склеенных чипов M1 Max, но при этом они были бы на 100% равны по производительности.
В Apple это всё прекрасно понимали, и что стоимость в производстве будет в несколько раз выше, и что по энергопотреблению никакого преимущества там не будет вообще. Именно поэтому и пришлось пойти на подделку результатов в тестах.
Ведь если бы они тогда на это не пошли, то как бы через год они смогли представить новый чип и не похвастаться что он по производительности на 20-30% лучше чем у конкурентов? То есть без подделывания результатов они были бы в роли догоняющих, а с подделыванием они могут на презентациях снова рисовать графики превосходства своих чипов над конкурентами. Это же просто как дважды два — четыре.
Твоя ссылка не работает! У меня есть приложение этой площадки и таких цен на Honor Power 2 там нет и быть не может, потому что они не могут указывать цены ниже официальных!
Зачем врать то? Таких цен на Honor Power 2 там нет. Там указаны официальные цены, которые озвучил Honor на презентации.
12/512 ГБ — 2999 юаней — 430$
12/256 ГБ — 2699 юаней — 388$
А 5800-му было достаточно обычной бюджетной мамки с обычной памятью ДДР4 без всяких изысков, благо его гигантский кэш как раз и нивелировал все минусы менее скоростной памяти
Блин зачем ты сравниваешь в стоке? i5-12400 был дном с памятью DDR4, но с быстрой DDR5 улетал в космос что даже 7900X3D не мог его догнать.
https://i.postimg.cc/J1dJfvsQ/Cyberpunk-08.png
не надо притягивать за уши вышедшие ощутимо позже рапторы и их рефреши, которые по себестоимости платформы были на порядок дороже, особенно если вы собирались ставить на них «быструю оперативку 8800», которая даже сейчас весьма недешево стоит, и требует топовую материнку.
Как такой бред можно было придумать? За цену одного 5800X3D можно было купить более быстрый i5-12400 вместе с материнкой на топовом чипсете Z690 и неплохую память DDR5-5600
Набор процессоров подобран каким то непонятным образом для получения какого то желаемого результата.
Никто ничего там специально не подбирал, просто на момент тестирования ещё не был представлен 9800X3D.
Вот результаты с ним.
https://tpucdn.com/review/amd-ryzen-7-9800x3d/images/average-fps-2560-1440.png
Ну вот скажите честно, вы заметите разницу между 150 и 160 fps?
Зачем он тебе нужен? Они из разных ценовых категорий:
9800X3D — $600
9600X — $220
Пойми, что процы с 3D-кэшем геймеры не покупают, потому что никто не играет на компах за $4000 в разрешении 1080p.
Ну а в народном разрешении 1440p там уже нет разницы с процами за $200
Так что все эти картинки с графиками чисто для смеха.
Как же в твоем комменте все мимо))
Во-первых, «Он не уступает в играх флагманскому 5950X» — теперь вспоминаем дату релиза его и кор ультра. Ты бы еще с фх 8350 сравнение сделал)
Во-вторых, речь идет о 265к, а ты кидаешь ссылку на тесты 285к. Шизофрения?)
Если вы не видите на скрине 265К — это не значит, что у меня шизофрения.
Они просто перевыпустили младшую версию провального 265K. Ожидается точно такой же провал в играх.
А что там провального? Он не уступает в играх флагманскому 5950X
https://tpucdn.com/review/intel-core-ultra-9-285k/images/average-fps-2560-1440.png
Там разниа даже с процами с 3D-кэшем не более пары фпс, которую невозможно заметить.
Я что то не понял. В ноутбуке батарея 60 Втч (вполне норм), но idle потребление в чреднем 4,3 Вт.
Так ведь для Macbook Pro 16 в режиме Idle они указывают вообще 17W, но при этом он крутит видео по 20 часов! Как ты это объяснишь ?
Всё дело в том, что в таблице notebookcheck указывает энергопотребление в режиме Idle у Macbook Pro 16 для низкой яркости 150 нит, а также максимальной 500 нит в ручном режиме. (режим HDR 1100 нит не указывается в таблице). Эти цифры тебя и запутали.
Но если ты прочитаешь текст, тогда поймешь откуда взялись эти 17W в режиме Idle.
https://a.imgfoto.host/2025/06/05/XRecorder_Edited_06062025_0147452.jpeg
Теперь ты понял методику замеров ?
Возвращаемся к ноуту Dell.
Если смотреть на реальную шкалу Idle — она ровная около 3 Вт.
https://a.imgfoto.host/2025/06/05/Screenshot_20250606-00281001.png
Да и новая батарея часто имеет емкость выше заявленной. Все производители идут на разного рода хитрости ради маркетингового продвижения, это всегда нужно иметь в виду. Аналогию можно привести по некоторым производителям материнских плат, которые обманом превышали лимиты у процессоров Intel и тем самым завышали производительность своей продукции! Так и здесь всегда можно заявить меньшую емкость батареи, а в реальности там может быть намного больше. Сегодня обман в технике повсюду: подделываются тесты в бенчах, подделываются тесты с яркостью и герцовкой экранов ради лучших результатов автономности..
Но судя по замерам энергопотребления экрана этого Dell, я вынужден признать заявление производителя, что это самый энергоэффективный из существующих экранов.
Ну и notebookcheck все устройства устестирует по одинаковой методике.
Факт в том, что нет. Особенно в режимах высокой производительности и высокого потребления. А в режимах низкого потребления всё довольно неодозначно, но под постоянно высокой нагрузкой х86 пока что в целом выигрывают, а отстают только в экономии на холостом ходу. Ну и плюс специфичные тесты на сопроцессоры
Ну вот возьмём Dell Pro 13 на Intel U7 268V который под низкими нагрузками в серфинге и просмотре видео проработал одинаково 24 часа. Notebookcheck сами признают что этот результат лучший из всех протестированных ими устройств.
https://www.notebookcheck.net/Dell-Pro-13-Premium-review-The-almost-perfect-business-laptop.982644.0.html
Можно привести пример какого-нибудь другого ноуа с тем же процем и у него автономность будет в два раза меньше до 12 часов.
То есть всё зависит от того как сам производитель настроил раздел электропитания.
Но даже 12 часов серфинга для меня очень хороший результат.
«при этом бывают статтеры» — Статтеры от 3D-кэша, который и внедрялся чтобы их устранить. Это вы прям очень круто придумали.👍
Иди посмотри обзоры на i2hard. Частенько бывают статтеры на рязани с 3D, в то время как на обычном i5 при меньшей частоте кадров плавность выше.
И если процы Интел убивали при зверских напряжениях и разгоне до 400 Вт, то процы АМД дохнут даже при работе на штатной мощности.
Я знаю многих владельцев, у которых ноуты с рязанью умерли. Вижу постоянно, что возвращают в соседний отдел нашего торгового центра. Если раньше приносили дохлые ноуты только на Интел, то в последние годы чаще стали приносить дохлые маки, айфоны и АМД. При этом эти владельцы признают, что их предыдущие ноуты на Интел хоть и грелись сильнее, но при этом внезапно не умирали. То же подтверждают сборщики ПК.
Так что не всё однозначно.
Тогда на маке тоже все работает — parallels.com/products/desktop/
Не знаю что там и как работает в эмуляции… но на винде точно есть любые проги или аналоги ещё лучше. Так что это просто ваши отговорки из принципа.
Ноут на виндовс даст лучше опыт использования благодаря лучшему экрану, производительности и автономности. Зачем мне лишний раз повторяться если на видео выше и так всё прекрасно видно.
Logic, Pixelmator Pro, Little Snitch, Orion Browser, Zed, Day One, LogTen Pro, Pages
Все эти приложения есть под Winfows, кроме приложение Little Snitch, Pixelmator и Zed.
Но разработчики предлагают запускать Zed под Windows с помощью WSL., либо установить кроссплатформенные аналоги.
https://vse-analogi.ru/app/zed-code-editor/analog
Да и вместо Pixelmator есть миллион аналогов, тот же Photoshop будет поинтереснее… Так что не нужно высасывать из пальцы несуществующие проблемы. Под любое приложение есть ещё лучше аналоги.
Я уже не говорю о том, сколько под винду есть профессионального софта, которого нет под маки.
Все бенчи подтвердили, что в синьке r24 для яблочных процев результаты искусственно накрутили. У Apple не было возможности честным путем улучшить производительность, когда конкуренты так сильно ушли вперед. Ты вспомни что говорил Тим Кук в интервью? Он сказал дословно следующее:
1) Intel утратила позиции лидера и неспособна произвести конкурентный продукт !
2) Ещё он добавил, что архитектура x86 себя изжила !
3) Также Тим Кук заявил, что только переход на ARM позволит увеличить производительность и в разы увеличит автономность.
Эти три цитаты нужно запомнить.
По началу всё так и было при выпуске первого М1 с низким потреблением 20-30 Вт. У конкурентов в то время помню были только чипы на 45-65 Вт и при этом они по производительности были хуже. Но когда в 2022 году был представлен M1 Max он потреблял уже свыше 100 Вт от розетки и под нагрузкой разряжал батарею менее чем за 1 час.
Вот тут все поняли что макбуки на ARM потребляют столько же, сколько и потребляли маки на x86. При этом Macbook Pro 2022 года на флагманском M1 Max был не особо быстрее мака 2019 года на Intel.
Cinebench r23 multi-core
Macbook 2022 — M1 Max — 11000
Macbook 2019 — i9-9880H — 9000
То есть за 3 года прогресс составил жалкие 20% и при этом у них было одинаковое энергопотребление и автономность.
При этом у Apple была фора в более энергоэффективном 5 нм техпроцессе против 14 нм у Intel. Специалисты пересчитали и пришли к выводу, что если бы проц Intel производили по 5 нм техпроцессу он бы был намного энергоэффективнее, чем Apple M1 Max.
С тех пор новые процы Apple все стали воспринимать предвзято и без особого энтузиазма.
Но время то шло и Intel с AMD ежегодно наращивали производительность у настольных камней очень сильно, попутно представляя мобильные энергоэффективные процы.
И вот переломный момент для Apple наступил на третий год в 2023 году, когда нужно было показать либо что-то в несколько раз лучше чем было у конкурентов, либо признать поражение. Но кто же будет признавать поражение после такого изнурительного перехода и после траты десятков миллиардов долларов на разработку своих процессоров? Ведь это позор! Ведь Apple поверил весь мир и все тоже кинулись разрабатывать свои камни на ARM! А по факту ARM оказался мыльным пузырём, который даже в бенчах сливал x86. Я уже молчу что в реальной жизни на ARM ничего нормально не работало, а через эмуляцию там ещё и производительность ложилась.
Для Apple разработать процессор производительнее чем у конкурентов нет никаких проблем, даже если на разработку такого процессора уйдёт миллиард долларов — для Apple это копейки и вообще не имеет никакого значения.
Проблема в том, что это не решит проблему, а наоборот ещё сильнее усугубит ситуацию.
Посмотри как наращивалась производительность относительно энергопотребления ?
Cinebench r23 multi-core.
(72W) M1 Ultra — 24.000 score.
(36W) М1 Max — 12.000 score.
(20W) M1 — 7500 score.
Как видишь на каждое удвоение производительности пришлось жертвовать таким же удвоением энергопотребления.
Apple конечно могла бы взять 3 чипа M1 Max и склеить их вместе чтобы получить в cinebench r23 результат 35.000 очей… но ведь это всё равно не помогло бы обойти конкурентов? Потому что 3 чипа M1 Max вместе будут потреблять 100 Вт. И зачем это нужно, если у AMD есть 7945HX, который при лимите 100 Вт в cinebench r23 выдает под 35.000 очей. Причем проц AMD в производстве обходится в 6 раз дешевле его размер кристалла 264 mm², а проц M1 Max имеет площадь кристалла 500 mm² — то есть 3 таких проца будут иметь площадь кристалла 1500 mm²! Это почти в 6 раз больше. Я понимаю, что сравнение не корректно, потому что у M1 Max есть на кристалле еще GPU. Но опять же по тестам в Blender и в играх GPU M1 Max слабее чем RTX 3050
Blender
RTX 3060 Ti — 2700
RTX 3050 — 1041
M1 Max — 956
Вот приведу ещё пример на игре, которую специально делали нативно для процессоров Apple.
Resident Evil Village (4K/High)
RTX 3060 Ti — 67 fps.
M1 Max — 25 fps.
То есть нужно 3 процессора M1 Max чтобы они работая вместе сравнялись в тестах и играх с одной RTX 3060 Ti.
Размер кристалла RTX 3060 Ti — 392 mm²
Теперь если сложить размеры кристаллов Ryzen 7945HX и RTX 3060 Ti у нас получится вот что: 264 mm² + 392 mm² = 652 mm² !
То есть общий размер кристалла Ryzen 7945HX и RTX 3060 Ti был бы всё равно в 2,5 РАЗА меньше, чем у трёх склеенных чипов M1 Max, но при этом они были бы на 100% равны по производительности.
В Apple это всё прекрасно понимали, и что стоимость в производстве будет в несколько раз выше, и что по энергопотреблению никакого преимущества там не будет вообще. Именно поэтому и пришлось пойти на подделку результатов в тестах.
Ведь если бы они тогда на это не пошли, то как бы через год они смогли представить новый чип и не похвастаться что он по производительности на 20-30% лучше чем у конкурентов? То есть без подделывания результатов они были бы в роли догоняющих, а с подделыванием они могут на презентациях снова рисовать графики превосходства своих чипов над конкурентами. Это же просто как дважды два — четыре.
Твоя ссылка не работает! У меня есть приложение этой площадки и таких цен на Honor Power 2 там нет и быть не может, потому что они не могут указывать цены ниже официальных!
Зачем врать то? Таких цен на Honor Power 2 там нет. Там указаны официальные цены, которые озвучил Honor на презентации.
12/512 ГБ — 2999 юаней — 430$
12/256 ГБ — 2699 юаней — 388$
Блин зачем ты сравниваешь в стоке? i5-12400 был дном с памятью DDR4, но с быстрой DDR5 улетал в космос что даже 7900X3D не мог его догнать.
https://i.postimg.cc/J1dJfvsQ/Cyberpunk-08.png
Как такой бред можно было придумать? За цену одного 5800X3D можно было купить более быстрый i5-12400 вместе с материнкой на топовом чипсете Z690 и неплохую память DDR5-5600
Никто ничего там специально не подбирал, просто на момент тестирования ещё не был представлен 9800X3D.
Вот результаты с ним.
https://tpucdn.com/review/amd-ryzen-7-9800x3d/images/average-fps-2560-1440.png
Ну вот скажите честно, вы заметите разницу между 150 и 160 fps?
А что там подтасовано?
Зачем он тебе нужен? Они из разных ценовых категорий:
9800X3D — $600
9600X — $220
Пойми, что процы с 3D-кэшем геймеры не покупают, потому что никто не играет на компах за $4000 в разрешении 1080p.
Ну а в народном разрешении 1440p там уже нет разницы с процами за $200
Так что все эти картинки с графиками чисто для смеха.
Если вы не видите на скрине 265К — это не значит, что у меня шизофрения.
А что там провального? Он не уступает в играх флагманскому 5950X
https://tpucdn.com/review/intel-core-ultra-9-285k/images/average-fps-2560-1440.png
Там разниа даже с процами с 3D-кэшем не более пары фпс, которую невозможно заметить.
Так ведь для Macbook Pro 16 в режиме Idle они указывают вообще 17W, но при этом он крутит видео по 20 часов! Как ты это объяснишь ?
Всё дело в том, что в таблице notebookcheck указывает энергопотребление в режиме Idle у Macbook Pro 16 для низкой яркости 150 нит, а также максимальной 500 нит в ручном режиме. (режим HDR 1100 нит не указывается в таблице). Эти цифры тебя и запутали.
Но если ты прочитаешь текст, тогда поймешь откуда взялись эти 17W в режиме Idle.
https://a.imgfoto.host/2025/06/05/XRecorder_Edited_06062025_0147452.jpeg
Теперь ты понял методику замеров ?
Возвращаемся к ноуту Dell.
Если смотреть на реальную шкалу Idle — она ровная около 3 Вт.
https://a.imgfoto.host/2025/06/05/Screenshot_20250606-00281001.png
Да и новая батарея часто имеет емкость выше заявленной. Все производители идут на разного рода хитрости ради маркетингового продвижения, это всегда нужно иметь в виду. Аналогию можно привести по некоторым производителям материнских плат, которые обманом превышали лимиты у процессоров Intel и тем самым завышали производительность своей продукции! Так и здесь всегда можно заявить меньшую емкость батареи, а в реальности там может быть намного больше. Сегодня обман в технике повсюду: подделываются тесты в бенчах, подделываются тесты с яркостью и герцовкой экранов ради лучших результатов автономности..
Но судя по замерам энергопотребления экрана этого Dell, я вынужден признать заявление производителя, что это самый энергоэффективный из существующих экранов.
Ну и notebookcheck все устройства устестирует по одинаковой методике.
Ну вот возьмём Dell Pro 13 на Intel U7 268V который под низкими нагрузками в серфинге и просмотре видео проработал одинаково 24 часа. Notebookcheck сами признают что этот результат лучший из всех протестированных ими устройств.
https://www.notebookcheck.net/Dell-Pro-13-Premium-review-The-almost-perfect-business-laptop.982644.0.html
Можно привести пример какого-нибудь другого ноуа с тем же процем и у него автономность будет в два раза меньше до 12 часов.
То есть всё зависит от того как сам производитель настроил раздел электропитания.
Но даже 12 часов серфинга для меня очень хороший результат.
Иди посмотри обзоры на i2hard. Частенько бывают статтеры на рязани с 3D, в то время как на обычном i5 при меньшей частоте кадров плавность выше.
И если процы Интел убивали при зверских напряжениях и разгоне до 400 Вт, то процы АМД дохнут даже при работе на штатной мощности.
Я знаю многих владельцев, у которых ноуты с рязанью умерли. Вижу постоянно, что возвращают в соседний отдел нашего торгового центра. Если раньше приносили дохлые ноуты только на Интел, то в последние годы чаще стали приносить дохлые маки, айфоны и АМД. При этом эти владельцы признают, что их предыдущие ноуты на Интел хоть и грелись сильнее, но при этом внезапно не умирали. То же подтверждают сборщики ПК.
Так что не всё однозначно.
Не знаю что там и как работает в эмуляции… но на винде точно есть любые проги или аналоги ещё лучше. Так что это просто ваши отговорки из принципа.
Ноут на виндовс даст лучше опыт использования благодаря лучшему экрану, производительности и автономности. Зачем мне лишний раз повторяться если на видео выше и так всё прекрасно видно.
Через эмулятор всё прекрасно работает. Не нужно искать отговорки.
Что «и»? Как друг Тима Кука может принимать взятки от китайцев? Яблоко за обман же любого может уничтожить в судах!
Все эти приложения есть под Winfows, кроме приложение Little Snitch, Pixelmator и Zed.
Но разработчики предлагают запускать Zed под Windows с помощью WSL., либо установить кроссплатформенные аналоги.
https://vse-analogi.ru/app/zed-code-editor/analog
Да и вместо Pixelmator есть миллион аналогов, тот же Photoshop будет поинтереснее… Так что не нужно высасывать из пальцы несуществующие проблемы. Под любое приложение есть ещё лучше аналоги.
Я уже не говорю о том, сколько под винду есть профессионального софта, которого нет под маки.