Автор не входит в состав редакции iXBT.com (подробнее »)
avatar

В другом синтетическом наборе тестов результаты могут быть другие.

Фейспалм. При чем здесь другие тесты? Вам говорят конкретно про Geekbench, в котором один чип Apple M4 с 4-ядрами на лету прибавил 30% в новой версии теста, а у другого более производительного 8-ядерного M2 Max результат в новой версии теста не изменился! Как такое может быть, если только результаты не подкручивают руками? Ведь процы те же эппловские, ядра тоже те же самые… Эти ядра унифицированные и они стоят даже в телефонных чипах.
avatar
Эппл выжимает только бабло из покупателей — за отсталые технологии.

Какие ещё отсталые технологии? До сих пор никто не осилил Face ID, процессоры и экраны уровня эппловских!
Пока что в новостях мы видим тщетные попытки сравнения своих чипов AMD, Intel и других производителей с процессорами Apple
avatar
Зато, как по этому «проигрышу» прошлись в комментариях:)…

Ну, если у комментаторов глаза в одном — это не проблема айфона.
avatar
iPhone даже Китайцев не может обойти какие там ему беззеркалки? Не смешите.

А ты в упор не видишь, у кого шумы?
avatar
То есть если эппл помрёт, то не будет ничего? Выходит хейтеры эппла должны благодарить Тима Кука за успехи китайцев и корейцев? Да и до появление яблочного проца Интел всем пудрила мозги 4-ядерным хламом за штуку. Про АМД даже вспоминать не буду.
Только от пинка яблока все зашевелились.
avatar
Пусть будет… Больше конкуренция — меньше цен будут поднимать. На то и Хуавей в море чтобы дименсити и квалком не дремали и не завышали цены

Зачем нужны чипы Huawei и как они влияют на конкуренцию? Помню ещё совсем недавно Huawei Mate 30 Pro даже версия на 256 Гб и без модема 5G официально стоила 1100 евро! Хотя находились дураки и покупали этот второсортный телефон, у которого был плохой экран, звук не соответствовал флагманам, плохая эргономика, не было сервисов google, а также у него была средняя автономность…
А его процессор Kirin 990 тоже раскритиковали за использование старых ядер A76.
И про говенный модем Balong не говорил только ленивый. iPhone 11 Pro Max по всем пунктам был лучше.
Лучше и дешевле чем Qualcomm китайцы сделать не могли — что им ARM даст, на том они и собирали.
avatar
На 2060 6гб при более высоких настройках (хайест вс хай) 112 средний и 95 на рынке, т.е. практически такой же как у м2 макс на просто высоких.
Так что древняя 2060 ещё походу процентов на 5-7 быстрее будет.
https://youtu.be/zR1kXStT1iE

В сравнении с RTX Laptop там плюс-минус паритет с RTX 3080, как и в 3DMark.
Кроме того, не забывай, что на эппловском проце все игры работают через эмуляцию с потерями в производительности до 30% !
В нативных проектах там производительность намного выше.
avatar
Если это подтвердится, это будет большой удар по репутации
avatar
Вот вроде не маленькие, а в сказки верят.
Про 30 ватт — это Эппл сказал? А как меряли? А что конкретно меряли?
Там даже по тепловыделению — 30 ватт и рядом нет (ясно, почему или разжевать?), скорее на уровне ноутбучников — 90-100 вт.
Да и 300 — это под разгоном, смотрим TDP внимательно.

M1 Max потребляет 31,9W в cinebench
А сколько кушает i9-13900K — почитай здесь.
avatar
чем в большем количестве тестов проводится сравнение, тем оно объективнее.

Правильные тесты в бенчах показывают лишь ту производительность, которая будет при нативной адаптации.
Вот резик в нативе и показал, что даже обрубок M1 Max может гнуть флагманы.
Resident Evil Village/2560x1440p/ на настройках High:
M1 Max — 120 фпс
RTX 3070 — 97 фпс
RTX 3080 -108 фпс
RTX 3080Ti — 135 фпс
avatar
M1 Max — 10.6 TFLOPS / M2 Max — 13.5 TFLOPS
M1 Pro — 5.3 TFLOPS / M2 Pro — 6.7 TFLOPS
В обоих случаях прирост около 30%. Так что ничего удивительного
avatar
владелец мака покупает на сдачу консоль

В этом больше нет необходимости — через parallels на M1 Max все игры работают в высоком разрешении 2560x1440p при 60-120 фпс с высокими настройками графики.
avatar
На RTX 3060 Resident Evil летает и с лучами и опции графики все выше Мак версии, а тут?)

На M1 Max Resident Evil Village идёт в 2560x1440p на высоких настройках графики при 120 фпс
RTX 3070 — 97 фпс
RTX 3080 -108 фпс
RTX 3080Ti — 135 фпс
avatar
Опять много воды без скрина и без ссылки в базу данных. В свободном доступе можно посмотреть любому. Зачем копипастить чужие новости ?
Потому я и говорю, что вы со своими запретами вставки изображения только всё усложняете пользователям, заставляя делать тонну телодвижений по переходам через ссылки!
avatar
Вы бы писали название процессора эпли, ведь это только m1 ultra обходит 12900к.
А остальные эпловскик чипы сосут, м2 слабее 12900к в 3 раза.

В какие ещё 3 раза?
avatar
Вы бы писали название процессора эпли, ведь это только m1 ultra обходит 12900к.
А остальные эпловскик чипы сосут, м2 слабее 12900к в 3 раза.

В какие ещё 3 раза?
avatar
на прорыв не похоже!
будущая платформа в синглфреде проигрывает годовалым процам на старом техпроцессе )

Эппл несколько лет назад заделала зверское ядро, а после ежегодно накручивала прирост простым поднятием частоты. Ход очень правильный, так как это позволяет экономить на разработке. Не каждый настольный проц до сих пор выдает 1900 баллов ядром.
В многопотоке производительность на уровне i7-12700K, который потребляет в 10 раз больше энергии!
avatar
Одна беда — нативных игр под макось кот наплакал.

Нет никакой там беды — и ненативные игры прекрасно работают.
Даже на середнячке M1 Max через эмулятор rosetta можно играть в высоком разрешении 1440p при 60 фпс с высокими настройками графики.
avatar
Не, ты пишешь лишь то, что нашёл в интернетах. Я, собсно, тоже так могу:
https://www.youtube.com/watch?v=HF_rMjjPoPs
.
M1 Ultra CPU ~90W;
M1 Ultra GPU ~70W;
M1 Ultra CPU+GPU ~130W.
.
Но, справедливости ради, это потребление от розетки всей системы Mac Studio.

Ты приводишь потребление всей системы вместе с потерями на блоке питания на преобразовании напряжений, потерями на системе охлаждения вертушек, потерями оперативной и видеопамяти.
При одновременной нагрузке на CPU и GPU M1 Ultra потребляет 137W, или по 50W на CPU и GPU
Если аналогично одновременно запустить нагрузку на i9-12900K+RTX 3090 — там потребление будет 800W
Только одна видеопамять у RTX 3090 потребляет больше 100W
Нельзя смешивать потребление всего компа и выдавать это за потребление чипа.
avatar
А, вот собственно этот кадр и доказывал про 4K 120FPS. :)

Там и есть 120 фпс в нативных играх через эппловский API Metal FX
В том же варкрафте в 4К разрешении у RTX 3090 в районе 100-140 фпс
На эппловском «М» даже выше.