Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Не знаю как у всех, не узнавал.
У меня нагревается до 46 градусов, а сейчас, когда дома 30, то и больше нагревается.
Ещё у него есть прикол, когда экран включен, тогда он держит температуру в пределах 40, понижая ток, а когда выключен так не делает, не понятно почему.
Так же когда 30 градусов дома и активная раздача интернета по WiFi, то греется больше 40 градусов даже от обычной зарядки на 2А.
-----
По хорошему (например по даташитам на 18650 аккумы) при зарядке температура не должна быть больше 30 градусов. 40 градусов в принципе допустимо, но вот после 40 идёт стремительная деградация аккума, чем горячее тем сильнее деградация и соответственно быстрое вздутие аккума.
Так вот работают литий ионные аккумы, при разрядке может быть и 60 и 80 градусов (80 уже плоховато конечно), а при зарядке нужно 25 градусов и все тесты на циклы заряда производятся при 25 градусах.
-----
Я телефон покупаю не на пол года и не на год, так что сильная деградация батареи из-за перегрева от быстрой зарядки мне не нужна.
Делаете быструю зарядку, так делайте нормально, а не так чтобы приходилось телефон в холодильнике заряжать.
Ну вот например у меня redmi note 8 pro и у него зарядка очень криво сделана, перегревается даже при своих 18 ваттах, поэтому пришлось покупать обычную зарядку.
Так что народ не доволен перегревом, если не можете охладить, то зачем такую зарядку вообще делать?
На 100% уверен, что arm в своих графиках не учитывает ПО, которое использует AVX2 инструкции, которые могут давать буст и 50% и больше тоже.
Охотнее поверю что X2 в 2 раза производительнее A76, чем что A76 производительнее i5-7300u.
Да и сравнение a76 против i5-7300u само по себе тупое, i5 — это скайлейк, который такой же и в i5-6300u и в 8000/9000/10000 сериях, разница только в частотах и энергопотреблении. Так же какая была частота у A76 почему-то не указано.
Вообще, если тупо взять и пересчитать попугаи в зависимости от частоты, то в гикбенче X1 +- на уровне ядер tiger lake процов. Типо 1050 на 2.84 ггц — это теоритеческие 1775 на 4.8 ггц.
Согласен, точно сравнить производительность ядер работающих с разными инструкциями — невозможно, компиляторы могут сильно влиять на результат, как и сам код.
Но точно так же нельзя по чистой синтетике утверждать, что arm X1 на уровне core 2 quad.
------
А нагрузку на процессор можно видеть, по крайней мере на Андроиде и по ядрам тоже можно, у меня всегда включен мониторинг нагрузки по ядрам, так же ещё включен мониторинг тока заряда/разряда, чтобы знать когда жрётся батарея и в каком количестве.
Да что вы к h264 привязались то?
Я же написал что он соответствует гикбенчу и у меня, а разница в пользу райзена в h265, vp9 и av1, особенно интересуют vp9 и av1, раз с h265 в разы хуже.
И опять эппл, который к arm отношения почти не имеет, а только использует arm инструкции. Ну вот тогда найдите мне хотя бы ffmpeg для айфона.
-------
Просто вы мне скидываете тесты в синтетике, а я вам говорю про реальное приложение, которое вы сами можете скачать с плей маркета и использовать.
Где я могу скачать ваш SPEC и кодировать им видосы? Правильно это не возможно.
Вот ffmpeg https://play.google.com/store/apps/details?id=com.silentlexx.ffmpeggui
Можете скачать и протестировать на arm x1, если у вас есть телефон с таким железом.
Ядра у apple тоже хорошие, это известно и так.
Только надо сравнивать ещё и с x86 процами, а такого нет, или я просто не могу найти.
А у гикбенча простенькие алгоритмы, если посмотреть на абсолютные цифры его тестов, то они огромные.
Например у меня 4387.0 FPS в тесте Rigid Body Physics гикбенча ( ядро a76 2.05 ггц) ну что это такое, зачем это нужно?
Вот и получается что простенький x264 соответствует цифрам гикбенча, а в разы более сложные алгоритмы показывают сильное превосходство x86 процов.
А ядра Apple — это вообще отдельная тема.
Так же есть серверные arm с ускорителями, аналогами AVX/AVX2 инструкций, вот они конкурируют с x86, а телефонные процы дно, для сложных вычислений просто делают ASIC внутри SOC и всё, соответственно под CPU не оптимизируют.
---------
Например тот же ffmpeg официально не собирают под apple m1 (не знаю как сейчас, давно не смотрел, может уже собирают).
А тот ffmpeg на андроид, в котором я тестировал, его собирает какой то разраб, скорее всего для себя, а на плей маркет он выложил скорее всего просто так, потому что не жалко.
Используется одно ядро и довольно часто.
Тот же zip, png, jpeg (если на cpu).
Так же сайты бывают хорошие, у которых сортировка таблицы работает на cpu клиента, а это тоже одно ядро.
-------
Я давно смотрю нагрузку на cpu по ядрам и вижу когда используется одно ядро и это не так уж и редко.
Просто скачайте accubattery и включите мониторинг загрузки проца, можно ещё включить мониторинг тока зарядки/разрядки, чтобы видеть кто и сколько жрёт энергии.
Кодер х265 не использует видеокарту, так же как не используютт видеокарту кодеры x264, libvpx-vp9, libaom-av1 — это чисто CPU кодеры (не путайте x264 и h264, x265 и h265 — это разные вещи, x — это кодер (программа), а h — это стандарт сжатия (формат битового потока)).
И у всех разные результаты.
Например в x264 райзен в 1.88 раз производительнее, что считай соответствует попугаям гикбенча.
В libvpx-vp9 райзен производительнее в 3.2 раза, 5.28 fps против 1.65 fps.
В libaom-av1 в 3.83 раза, 2.3 fps против 0.6 fps.
Такая большая разница в x265 скорее всего потому что он активно использует AVX и AVX2, процы с AVX2 дают на 30-40% больше fps при прочих равных, так что не может ARM противостоять x86 процам, когда на x86 используются AVX инструкции.
------------
Да, у core 2 quad нету AVX, но я всё равно не удивлюсь, если он будет быстрее чем ядро X1.
Так не используйте аппаратное ускорение на Apple и не будет в 4 раза быстрее (только это не возможно сделать).
Вот какой смысл сравнить CPU Intel и ASIC Apple?
Я думал всем давно известно, что ASIC чипы работают в разы быстрее чем CPU и GPU, да хотя бы на примере того же биткоина.
Ну даже если там и у Intel используется ASIC, то это лишь показывает, что ASIC эппл быстрее и тогда к ядрам CPU это вообще не имеет отношения никакого.
А ведь гикбенч тестирует ядра CPU, так к чему тогда вы скидаваете тесты асиков?
Гик бенч такой себе тест.
Например в нём мой redmi note 8 pro набирает примерно 500 / 1650 (одно ядро/ все ядра).
А ноут с ryzen 5 2500u набирает 700 / 2950
Получается считаем: 2950 / 1650 = 1.7879, райзен в 1.7879 раз производительнее.
А теперь запускаем ffmpeg и кодирование с кодером x265 1080р видео и получаем около 1.9 фпс на телефоне и 12 фпс на ноуте. Считаем 12 / 1.9 = 6.316 раз.
Так и что дают попугаи гикбенча, если в реальной проге разница в разы больше в пользу ноута?
Да этот х265 взял просто для примера, он похоже просто не оптимизирован под arm, но зато показательно.
А мне вот например медиатек был известен своим инженерным меню, которое мне необходимо.
А про «тестовые примочки» я бы и не знал ничего, если бы не читал тут таких ботов как ты.
Похоже совсем разное понимаем под «тянет».
Например между Pentium g3240 (ПК на работе) и ryzen 2500u (ноут дома) огромная разница. А amd e-350 скорее всего раза в 2 слабее чем пень, а значит уже уровень ниже моего бюджетного смартфона, поэтому я бы просто использовал мобилку, а не такой ПК.
Убивает помешанность на 120-360 Гц экранах, которая добралась и до ноутов.
Герцы можно не видеть и со 100% зрением, зависит от личного восприятия (это как некоторые видят ШИМ OLED экранов, а некоторые нет), а разницу в разрешении увидит любой, если конечно захочет.
------------------------
Мне например для 15.6 не хватает full HD, потому, что у меня в телефоне это же full HD на 5.5 экране и выглядит заметно лучше, чем на 15.6.
Соответственно для 27 дюймового мне не хватит 4к.
------------------------
Так что мне не понятно, почему 4к в ноутах ставят в ультрабуки с дно дискреткой или даже просто со встройкой, а в нормальные чуть более толстые ноуты, у которых мощное железо, ставят full HD.
Выходит, что дешевле купить ноут с нужным тебе железом и самым плохим экраном и докупить портативный 15.6 монитор с 4к, чем искать ноут с сразу установленным 4к.
Ну тут кому как и в зависимости от того, что называть плохим.
Если интересно, могу скинуть 64мп фотки со сток камеры и с гугл, чтобы была понятна разница.
У меня вот 64мп, но в стоковой камере эти 64мп мне не нужны в принципе, потому-что они плохие (при том, что они лучше многих других телефонов с той же матрицей), почти всегда проигрывают 16мп фоткам с гугл камеры.
А вот как вышла гугл камера с поддержкой 64мп, так сразу стал использовать 64мп, потому-что совсем другой уровень.
Но гугл камера требует много производительности и памяти, поэтому с 200мп гугл камеры не будет, ибо не юзабельна будет.
---------------------
По скорости у меня так:
Сток камера: 16мп — мгновенно, 64мп — пол секунды.
Гугл камера же 16мп — 3-5 секунд, 64мп — 10-15 секунд, плюс лаги дикие и заполнение всей оперативки (оперативки хорошо бы от 10гб и это 64мп, а у меня только 6гб), плюс не возможно фоткать подряд несколько фоток, для многих это не юзабельно. Ну и редактируются 64мп намного хуже чем 16мп, как raw, так и jpeg, нету запаса для редактирования.
Так что мне лучше 50мп или максимум 100мп в гугл камере, чем 200мп в камере производителя с никаким качеством.
Это не ля-ля, а факт, и вы можете открыть сайт и сами посмотреть.
https://www.gsmarena.com/piccmp.php3?idType=5&idPhone1=8720&idPhone2=10118
Может среди смартфонов они лучшие, но против гугл камеры ничего не могут как и все.
----------------
Вот заскринил, у хуавея цвета совсем беледные, их почти нет, а у пикселя всё нормально, явно видно, что мелкий рисунок из линий разноцветный, а у хуавея он практически одноцветный.
https://drive.google.com/file/d/11KOx2PljsW3b0LDnExnI7WCHYBQqwoII/view?usp=drivesdk
И это у хуавея матрица в 4 раза больше чем у пикселя, но им это всё равно не помогло.
Это не возможно довести до ума, ну нету сейчас таких мощностей, чтобы резко вместо 50-100 мп поставить 200 мп.
При прочих равных для 200 мп нужно в 4 раза больше производительности, чем для 50 мп, а такой производительности нету, так что алгоритмы упрощают и качество падает, а значит и толку от 200 мп никакого абсолютно.
--------------------------
А Самсунг правильно сделали, лучше иметь хорошие 50 мп всегда, чем плохие 200 мп только в солнечный день на улице.
--------------------------
Конечно один вариант есть — сделать asic под свою камеру, но что-то в этом направлении никто не двигается.
Выбирал, чтобы проц был медиатек, а оказалось, что тело фоткает лучше чем iphone 12 pro, а в режиме 64 мп тем более.
Тело redmi note 8 pro с гугл камерой.
-----------------------------------------
Посмотрите хоть фотки на gsmarena, там есть хороший инструмент для сравнения, айфон всё ещё не дорос до пикселей, как в принципе и все остальные без гугл камеры.
Такой ужас фоткают, не понятно зачем только такие матрицы ставят, если всё равно убивают фотки своим ПО.
У всех просто ноль цвета, а у пикселей цвет есть, если бы не пиксель, то даже не было бы понятно как сильно косячат все остальные.
Явная дичь, на 64мп в гугл камере и то мощности процов не хватает, а тут 200.
А их 200 будут хуже чем мои 64мп в гугл камере на redmi note 8 pro, а 200 в гугл камере запустить вообще не получится.
Лучшие камеры индустрии сливаются бюджетником с гугл камерой.
Не понимаю почему люди не могут просто открыть gsmarena и посмотреть фотки, просто сравнить с любым пикселем, там для этого очень удобный инструмент.
У меня нагревается до 46 градусов, а сейчас, когда дома 30, то и больше нагревается.
Ещё у него есть прикол, когда экран включен, тогда он держит температуру в пределах 40, понижая ток, а когда выключен так не делает, не понятно почему.
Так же когда 30 градусов дома и активная раздача интернета по WiFi, то греется больше 40 градусов даже от обычной зарядки на 2А.
-----
По хорошему (например по даташитам на 18650 аккумы) при зарядке температура не должна быть больше 30 градусов. 40 градусов в принципе допустимо, но вот после 40 идёт стремительная деградация аккума, чем горячее тем сильнее деградация и соответственно быстрое вздутие аккума.
Так вот работают литий ионные аккумы, при разрядке может быть и 60 и 80 градусов (80 уже плоховато конечно), а при зарядке нужно 25 градусов и все тесты на циклы заряда производятся при 25 градусах.
-----
Я телефон покупаю не на пол года и не на год, так что сильная деградация батареи из-за перегрева от быстрой зарядки мне не нужна.
Делаете быструю зарядку, так делайте нормально, а не так чтобы приходилось телефон в холодильнике заряжать.
Так что народ не доволен перегревом, если не можете охладить, то зачем такую зарядку вообще делать?
Охотнее поверю что X2 в 2 раза производительнее A76, чем что A76 производительнее i5-7300u.
Да и сравнение a76 против i5-7300u само по себе тупое, i5 — это скайлейк, который такой же и в i5-6300u и в 8000/9000/10000 сериях, разница только в частотах и энергопотреблении. Так же какая была частота у A76 почему-то не указано.
Вообще, если тупо взять и пересчитать попугаи в зависимости от частоты, то в гикбенче X1 +- на уровне ядер tiger lake процов. Типо 1050 на 2.84 ггц — это теоритеческие 1775 на 4.8 ггц.
Но точно так же нельзя по чистой синтетике утверждать, что arm X1 на уровне core 2 quad.
------
А нагрузку на процессор можно видеть, по крайней мере на Андроиде и по ядрам тоже можно, у меня всегда включен мониторинг нагрузки по ядрам, так же ещё включен мониторинг тока заряда/разряда, чтобы знать когда жрётся батарея и в каком количестве.
Я же написал что он соответствует гикбенчу и у меня, а разница в пользу райзена в h265, vp9 и av1, особенно интересуют vp9 и av1, раз с h265 в разы хуже.
И опять эппл, который к arm отношения почти не имеет, а только использует arm инструкции. Ну вот тогда найдите мне хотя бы ffmpeg для айфона.
-------
Просто вы мне скидываете тесты в синтетике, а я вам говорю про реальное приложение, которое вы сами можете скачать с плей маркета и использовать.
Где я могу скачать ваш SPEC и кодировать им видосы? Правильно это не возможно.
Вот ffmpeg https://play.google.com/store/apps/details?id=com.silentlexx.ffmpeggui
Можете скачать и протестировать на arm x1, если у вас есть телефон с таким железом.
Только надо сравнивать ещё и с x86 процами, а такого нет, или я просто не могу найти.
А у гикбенча простенькие алгоритмы, если посмотреть на абсолютные цифры его тестов, то они огромные.
Например у меня 4387.0 FPS в тесте Rigid Body Physics гикбенча ( ядро a76 2.05 ггц) ну что это такое, зачем это нужно?
Вот и получается что простенький x264 соответствует цифрам гикбенча, а в разы более сложные алгоритмы показывают сильное превосходство x86 процов.
А ядра Apple — это вообще отдельная тема.
Так же есть серверные arm с ускорителями, аналогами AVX/AVX2 инструкций, вот они конкурируют с x86, а телефонные процы дно, для сложных вычислений просто делают ASIC внутри SOC и всё, соответственно под CPU не оптимизируют.
---------
Например тот же ffmpeg официально не собирают под apple m1 (не знаю как сейчас, давно не смотрел, может уже собирают).
А тот ffmpeg на андроид, в котором я тестировал, его собирает какой то разраб, скорее всего для себя, а на плей маркет он выложил скорее всего просто так, потому что не жалко.
Тот же zip, png, jpeg (если на cpu).
Так же сайты бывают хорошие, у которых сортировка таблицы работает на cpu клиента, а это тоже одно ядро.
-------
Я давно смотрю нагрузку на cpu по ядрам и вижу когда используется одно ядро и это не так уж и редко.
Просто скачайте accubattery и включите мониторинг загрузки проца, можно ещё включить мониторинг тока зарядки/разрядки, чтобы видеть кто и сколько жрёт энергии.
И у всех разные результаты.
Например в x264 райзен в 1.88 раз производительнее, что считай соответствует попугаям гикбенча.
В libvpx-vp9 райзен производительнее в 3.2 раза, 5.28 fps против 1.65 fps.
В libaom-av1 в 3.83 раза, 2.3 fps против 0.6 fps.
Такая большая разница в x265 скорее всего потому что он активно использует AVX и AVX2, процы с AVX2 дают на 30-40% больше fps при прочих равных, так что не может ARM противостоять x86 процам, когда на x86 используются AVX инструкции.
------------
Да, у core 2 quad нету AVX, но я всё равно не удивлюсь, если он будет быстрее чем ядро X1.
Вот какой смысл сравнить CPU Intel и ASIC Apple?
Я думал всем давно известно, что ASIC чипы работают в разы быстрее чем CPU и GPU, да хотя бы на примере того же биткоина.
Ну даже если там и у Intel используется ASIC, то это лишь показывает, что ASIC эппл быстрее и тогда к ядрам CPU это вообще не имеет отношения никакого.
А ведь гикбенч тестирует ядра CPU, так к чему тогда вы скидаваете тесты асиков?
Например в нём мой redmi note 8 pro набирает примерно 500 / 1650 (одно ядро/ все ядра).
А ноут с ryzen 5 2500u набирает 700 / 2950
Получается считаем: 2950 / 1650 = 1.7879, райзен в 1.7879 раз производительнее.
А теперь запускаем ffmpeg и кодирование с кодером x265 1080р видео и получаем около 1.9 фпс на телефоне и 12 фпс на ноуте. Считаем 12 / 1.9 = 6.316 раз.
Так и что дают попугаи гикбенча, если в реальной проге разница в разы больше в пользу ноута?
Да этот х265 взял просто для примера, он похоже просто не оптимизирован под arm, но зато показательно.
А пока что замены для моего rn8 pro нету.
А про «тестовые примочки» я бы и не знал ничего, если бы не читал тут таких ботов как ты.
Например между Pentium g3240 (ПК на работе) и ryzen 2500u (ноут дома) огромная разница. А amd e-350 скорее всего раза в 2 слабее чем пень, а значит уже уровень ниже моего бюджетного смартфона, поэтому я бы просто использовал мобилку, а не такой ПК.
Герцы можно не видеть и со 100% зрением, зависит от личного восприятия (это как некоторые видят ШИМ OLED экранов, а некоторые нет), а разницу в разрешении увидит любой, если конечно захочет.
------------------------
Мне например для 15.6 не хватает full HD, потому, что у меня в телефоне это же full HD на 5.5 экране и выглядит заметно лучше, чем на 15.6.
Соответственно для 27 дюймового мне не хватит 4к.
------------------------
Так что мне не понятно, почему 4к в ноутах ставят в ультрабуки с дно дискреткой или даже просто со встройкой, а в нормальные чуть более толстые ноуты, у которых мощное железо, ставят full HD.
Выходит, что дешевле купить ноут с нужным тебе железом и самым плохим экраном и докупить портативный 15.6 монитор с 4к, чем искать ноут с сразу установленным 4к.
Если интересно, могу скинуть 64мп фотки со сток камеры и с гугл, чтобы была понятна разница.
У меня вот 64мп, но в стоковой камере эти 64мп мне не нужны в принципе, потому-что они плохие (при том, что они лучше многих других телефонов с той же матрицей), почти всегда проигрывают 16мп фоткам с гугл камеры.
А вот как вышла гугл камера с поддержкой 64мп, так сразу стал использовать 64мп, потому-что совсем другой уровень.
Но гугл камера требует много производительности и памяти, поэтому с 200мп гугл камеры не будет, ибо не юзабельна будет.
---------------------
По скорости у меня так:
Сток камера: 16мп — мгновенно, 64мп — пол секунды.
Гугл камера же 16мп — 3-5 секунд, 64мп — 10-15 секунд, плюс лаги дикие и заполнение всей оперативки (оперативки хорошо бы от 10гб и это 64мп, а у меня только 6гб), плюс не возможно фоткать подряд несколько фоток, для многих это не юзабельно. Ну и редактируются 64мп намного хуже чем 16мп, как raw, так и jpeg, нету запаса для редактирования.
Так что мне лучше 50мп или максимум 100мп в гугл камере, чем 200мп в камере производителя с никаким качеством.
https://www.gsmarena.com/piccmp.php3?idType=5&idPhone1=8720&idPhone2=10118
Может среди смартфонов они лучшие, но против гугл камеры ничего не могут как и все.
----------------
Вот заскринил, у хуавея цвета совсем беледные, их почти нет, а у пикселя всё нормально, явно видно, что мелкий рисунок из линий разноцветный, а у хуавея он практически одноцветный.
https://drive.google.com/file/d/11KOx2PljsW3b0LDnExnI7WCHYBQqwoII/view?usp=drivesdk
И это у хуавея матрица в 4 раза больше чем у пикселя, но им это всё равно не помогло.
При прочих равных для 200 мп нужно в 4 раза больше производительности, чем для 50 мп, а такой производительности нету, так что алгоритмы упрощают и качество падает, а значит и толку от 200 мп никакого абсолютно.
--------------------------
А Самсунг правильно сделали, лучше иметь хорошие 50 мп всегда, чем плохие 200 мп только в солнечный день на улице.
--------------------------
Конечно один вариант есть — сделать asic под свою камеру, но что-то в этом направлении никто не двигается.
Тело redmi note 8 pro с гугл камерой.
-----------------------------------------
Посмотрите хоть фотки на gsmarena, там есть хороший инструмент для сравнения, айфон всё ещё не дорос до пикселей, как в принципе и все остальные без гугл камеры.
Такой ужас фоткают, не понятно зачем только такие матрицы ставят, если всё равно убивают фотки своим ПО.
У всех просто ноль цвета, а у пикселей цвет есть, если бы не пиксель, то даже не было бы понятно как сильно косячат все остальные.
А их 200 будут хуже чем мои 64мп в гугл камере на redmi note 8 pro, а 200 в гугл камере запустить вообще не получится.
Не понимаю почему люди не могут просто открыть gsmarena и посмотреть фотки, просто сравнить с любым пикселем, там для этого очень удобный инструмент.