Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Там работает ровно столько сотрудников, скольким продолжают платить зарплату. Но в любом случае от первоначальных 7 500 сотрудников осталась меньше трети
3DMark не врёт, это было доказано на реальных играх.
Старый M1 Max в играх показывает производительность на уровне десктопной RTX 3060 — или ноутбучных RTX 3070/3080.
Тоже самое показывает и 3DMark
RTX 3090 в играх была на 25% быстрее M1 Ultra.
В 3DMark — аналогично.
Geekbench же по графике показывает цифры с потолка.
По работе много видео снимаю выгружаю на ноут, скорость данных просто прошлый век относительно других современных устройств. Заряжать 2 часа на беспроводной зарядке телефон, такое себе, после 30 минут, ждать не хочется.
Шнурки стандарт и проще подключить другие устройства, ноутбук, планшет и т.д.
1) айфон заряжается беспроводной зарядкой до 50% за 40 минут, чего более чем достаточно.
Вот только это время для честности нужно разделить на 2, потому что у Андроидов автономность в 2 раза меньше.
Galaxy S22 Ultra имеет 9 часов экранного времени при серфинге, а айфон — 16 часов.
В итоге айфон заряжаешь редко и время на зарядку уходит примерно одинаковое, несмотря на более медленный заряд.
2. Если ты много снимаешь, то тем более шнурки не нужны, потому что быстро забъешь хранилище своего компа — 1 час в prores весит 600 Гб, а у многих маки с меньшим SSD! Никаких хранилищ в домашнем компе не хватит. Облака быстрее и надежнее!
Blade 16, с двойным нативным дисплеем, с 4К нативным 120 герц, и 2К 240 герц режимом и 1000 нитами, с I9 который чуть ли не догоняет 32 ядерный Фредрипер второго поколения, и с RTX 4070, и имеет все возможные разъёмы на корпусе, стоит 2800 баксов
Geekbench уже много лет облизывает Apple ) Но это только попугаи, а не реальность)
Intel, AMD, ARM и все остальные тоже тестят свои камни в geekbench и показывают результаты на слайдах в презентациях.
Но по замерам графики в этом бенче правды реально мало.
да хоть до fullHD можно ужать. Но зачем тогда изначально снимать в 8К?
Могу ответить вопросом на вопрос. А зачем тогда нужно Full HD? Зачем нужно 4К?
Это прогресс. Если ничего не делать — будет стагнация.
Сегодня 8К Qled телек уже продают за копейки!
Причем случаи преждевременного разряда аккумулятора и нагрева телефона начали фиксироваться после выхода декабрьского обновления One UI, и, сообщается, что январское обновление ситуацию лишь усугубило.
Ну всё правильно. Ведь через неделю выходит новая модель и пользователям недвусмысленно намекнули, что пора обновить старый теоефон
Скорость передачи данных, время зарядки, type c. Это то, что хотелось бы улучшить уже давно, сравнивал iPhone 14 pro max относительно oneplus 9pro.
Я шнурки и Type C не использую вообще. Заряжаю всегда беспроводной зарядкой. Памяти в телефонах сейчас полно и что-то передавать куда-то нет необходимости. Если память заканчивается — iOS сама выгружает давно неиспользуемые файлы в облака. Зачем подключать телефон к компу и засорять его?
RTX 3070 — 97 фпс
RTX 3080 -108 фпс
RTX 3080Ti — 135 фпс
Странные результаты.
3080ti на max даёт 200фпс+, 3070 порядка 140.
120 на high — это уровень 2060/6600 или меньше.
Это результаты десктопных версий. Я написал тесты ноутбучных.
Вот есть первые тесты с 3д ньюс. Где тестировалась встройка 680m
У Ryzen 6900HS один CPU потребляет в cinebench до 130W
Power Consumption — Cinebench R15 Multi — max: 129W против 15W у M1
>>
Производительность графики Radeon 680M в 3DMark Wild Life Extreme — max: 3960 Points, — у М1 — 5000, что на 25% производительнее.
3DMark не врёт, это было доказано на реальных играх.
Старый M1 Max в играх показывает производительность на уровне десктопной RTX 3060 — или ноутбучных RTX 3070/3080.
Тоже самое показывает и 3DMark
RTX 3090 в играх была на 25% быстрее M1 Ultra.
В 3DMark — аналогично.
Geekbench же по графике показывает цифры с потолка.
Я в курсе, что чехол спасает от случайных нажатий, но я чехлы и плёнки не использую.
1) айфон заряжается беспроводной зарядкой до 50% за 40 минут, чего более чем достаточно.
Вот только это время для честности нужно разделить на 2, потому что у Андроидов автономность в 2 раза меньше.
Galaxy S22 Ultra имеет 9 часов экранного времени при серфинге, а айфон — 16 часов.
В итоге айфон заряжаешь редко и время на зарядку уходит примерно одинаковое, несмотря на более медленный заряд.
2. Если ты много снимаешь, то тем более шнурки не нужны, потому что быстро забъешь хранилище своего компа — 1 час в prores весит 600 Гб, а у многих маки с меньшим SSD! Никаких хранилищ в домашнем компе не хватит. Облака быстрее и надежнее!
Это где он столько стоит — в фантазиях?
Intel, AMD, ARM и все остальные тоже тестят свои камни в geekbench и показывают результаты на слайдах в презентациях.
Но по замерам графики в этом бенче правды реально мало.
Обоим результатам не верь, потому что они не соответствуют реальной производительности. Нужно ждать 3DMark — он не врёт
Могу ответить вопросом на вопрос. А зачем тогда нужно Full HD? Зачем нужно 4К?
Это прогресс. Если ничего не делать — будет стагнация.
Сегодня 8К Qled телек уже продают за копейки!
Думаю, эппл найдёт способ уменьшить размер 8К до уровня 4К
Ну всё правильно. Ведь через неделю выходит новая модель и пользователям недвусмысленно намекнули, что пора обновить старый теоефон
Я шнурки и Type C не использую вообще. Заряжаю всегда беспроводной зарядкой. Памяти в телефонах сейчас полно и что-то передавать куда-то нет необходимости. Если память заканчивается — iOS сама выгружает давно неиспользуемые файлы в облака. Зачем подключать телефон к компу и засорять его?
Вот я и боюсь, что эппл тоже ударится в закругленные экраны.
Я столько нервов перетрепал от случайных и ложных срабатываний на гнутых экранах…
Это результаты десктопных версий. Я написал тесты ноутбучных.
У Ryzen 6900HS один CPU потребляет в cinebench до 130W
Power Consumption — Cinebench R15 Multi — max: 129W против 15W у M1
>>
Производительность графики Radeon 680M в 3DMark Wild Life Extreme — max: 3960 Points, — у М1 — 5000, что на 25% производительнее.
вот если бы ещё и гугл влилась в борьбу производительных SoC…