Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Тактильно самая лучшая спинка была у Samsung Galaxy Alpha SM-G850F: материал задней крышки — пластик с бархатистым покрытием, Поверхность крышки негладкая, когда достаешь телефон, рука буквально прилипает к крышке, не скользит. Выронить из рук телефон о-о-очень сложно.
Эффективность HT сильно зависит от выполняемых приложений.
Но в среднем, дает от -5% до +30% прироста. Вспомните тесты i7-8700K и i7-9700K, сравните с i9-9900K.
А я вот хочу и быстрые и энергоэффективные ядра одновременно на десктопе.
Половина времени (а скорее больше 95%) он все равно простаивает.
Вот и пусть всякую фоновую муть выполняют энергоэффективные ядра. Зато будет без нагрева, тихо, и экономично по потреблению.
Microsoft обновляет планировщик и никаких проблем не будет.
Ну и кроме того, посмотрите что там с 16+ ядерными процессорами происходит: там теплопакет начинается с 105 ну и еще цены не гуманные. Причем 105Вт это при загрузке всех ядер на минимальной частоте 3500Мгц да еще и без AVX. То есть получается 16 медленных ядер. Зачем они сейчас рядовому потребителю?
Не только лишь все видеопродакшеном и VPS-хостингом на обычных ПК занимаются :-) Сама по себе гонка ядер смысла для потребителя не имеет. Имеет смысл гонка потребительских качеств: производительность на $, производительность на ватт.
А эти 20 потоков будут существенно экономить электричество, причем потребность а охлаждении будет не значительна.
Топовый десктопный Интел снова возвращается к 95Вт TDP. Разве от этого кому-то плохо?
P.S.: Гонка за ядра имела смысл, когда у тебя было 4 ядра, а у конкурента 2, и те кипятильник. Тогда это была драматическая разница в отзывчивости ПК. А сейчас, когда 4-6 ядра это обычные процессоры, для 99+% потребителей настольных процессоров нет никакой разницы между 8 и 16 ядрами.
Здесь уже был обзор ноутбука на Alder Lake процессоре с формулой 4+1.
Энергоэффективные ядра — полноценные, они принципиально отличаются отсутствием поддержки AVX.
Пока нет поводов расстраиваться. Когда AV1 заполонит рынок, думаю у Вас либо видеокарта появится под AV1 (какая нибудь RTX 3xxx, или Radeon 6xxx), либо апгрейд платформы произойдет.
Проверял на Ryzen 5 2600 на Youtube:
1080@25 — AV1 декодируется нормально, загрузка CPU 16-20%, фоновая 9-10%.
4k@25 — AV1 декодируется нормально, загрузка CPU 25-41%, фоновая 8-11%.
8k@25 — AV1 декодируется c значительными фризами, загрузка CPU 76-91%, фоновая 9-12%.
Так что если выбирать не печатную машинку, то для 4k AV1 аппаратная поддержка не нужна. Процессора из этой новости будет более чем достаточно.
Странно другое, на Youtube при воспроизведении роликов c AV1 в названии выбирает перекодированное VP9 видео.
Кроме того один и тот же ролик в одном и том же 4K разрешении может один раз открыться как VP9, в другой как AV1.
Наверное поэтому пока проблема с воспроизведением AV1 на старых и/или медленных процессорах не воспроизводится массово.
Вообще не актуален. Просто потому, что дискретка спокойно пережует всё сама.
Это утверждение основано на домыслах а не фактах. Если браузер не видит аппаратной поддержки конкретного декодера на видеокарте, то декодировать будет программно, т.е. не на видеокарте. А аппаратная поддержка AV-1 есть только у RTX серии 3000, и Radeon серии 6000.
Этот вопрос актуален лишь для недорогих ноутбуков, т.е. для самых младших линеек. Ибо даже старшие U процессоры будут идти только с дискретной графикой или в ультрабуках.
И вот тут да неприятно, но тем не менее можно будет декодировать видео на самом apu.
Ультрабуки с топовыми процессорами дешевыми не бывают. Зачастую они комплектуются экранами 4К. Купить ноут за 100к+ и видеть тормоза при просмотре Ютуба это не то, о чем мечтает каждый покупатель.
Вот например у меня дискретка без AV1, включаю ютуб 1080@60 AV1| 1080@60 VP9 | 4320@60 VP9, разницы в том же потреблении нет.
Вопрос к Вашей методике тестирования. Сейчас поддержка VP9 есть практически на всех актуальных картах, разница в декодировании на VP9 на видеокарте и AV1 на процессоре должна быть заметной.
А роликов 4к-8к, на AV1 в ютубе, при беглом осмотре я не нашёл.
То что их сейчас нет в заметных количествах на том же Ютубе не отменяет того, что AV1 уже стал де факто следующим промышленным стандартом. Кроме того, есть большое количество видео сайтов, где этот кодек будет применяться уже в ближайшие годы.
Ситуация получается такая, пользы от AV1, на данный момент, мало, не говоря уже том, что его наличие плохо скажется лишь на ограниченном кол-ве моделей.
Что означает, ну и фиг с ним, нету и нету, чо бухтеть то.
Т.е. что бы он понадобился, нужно взять дешевый/тонкий ноут без дискретки, подключить к 4к-8к экрану, при том исключая VP9. И вот тогда, может быть, это будет полезно.
Ноутбук уже может быть с 4K экраном. Также сценарий с подключением внешнего монитора на 4к-8к экрану является обыденным, в части 4K сейчас и 8K через пару лет.
Ноутбуки на топовых процессорах покупаются все-таки не на один год (по крайней мере в этой стране).
А аппаратный декодер AV1 есть в видеоядре этих чрезвычайно мощных процессорах?
И что там с автономностью? Не жрут ли батарею?
А как насчет нагрева? Может там жидкий азот нужен для охлаждения?
CPU+GPU в одном кристалле нужны для компактных систем, в т.ч. ноутбуков.
Северный мост теперь встроен в процессор вместе с контроллером памяти. И делалось это ради повышения интеграции и уменьшения задержек при работе с памятью.
Вынесение GPU на чипсет (читай южный мост) приведет к следующим последствиям:
1) южный мост будет очень дорогой и горячий (чипсет делается по старым тех процессам). Т.е. материнская плата будет дорогой и очень горячей, с активным охлаждением чипсета;
2) на порядок повысятся задержки между GPU и памятью;
3) ПСП между чипсетом и процессором снизится на величину, отведенную для GPU.
Т.е. этот вариант по потребительским качествам будет хуже, чем существующий.
Лучше уж пусть сделают многоканальный контроллер памяти (3-4 канала) и материнские платы под него.
Тогда можно будет взять APU и получить 100+ Гб/с ПСП с DDR4 3200. А если брать топовую память, то и выше. Т.е. такой вариант полностью сделает ненужными все затычки.
Но в среднем, дает от -5% до +30% прироста. Вспомните тесты i7-8700K и i7-9700K, сравните с i9-9900K.
Половина времени (а скорее больше 95%) он все равно простаивает.
Вот и пусть всякую фоновую муть выполняют энергоэффективные ядра. Зато будет без нагрева, тихо, и экономично по потреблению.
Ну и кроме того, посмотрите что там с 16+ ядерными процессорами происходит: там теплопакет начинается с 105 ну и еще цены не гуманные. Причем 105Вт это при загрузке всех ядер на минимальной частоте 3500Мгц да еще и без AVX. То есть получается 16 медленных ядер. Зачем они сейчас рядовому потребителю?
Не только лишь все видеопродакшеном и VPS-хостингом на обычных ПК занимаются :-) Сама по себе гонка ядер смысла для потребителя не имеет. Имеет смысл гонка потребительских качеств: производительность на $, производительность на ватт.
А эти 20 потоков будут существенно экономить электричество, причем потребность а охлаждении будет не значительна.
Топовый десктопный Интел снова возвращается к 95Вт TDP. Разве от этого кому-то плохо?
P.S.: Гонка за ядра имела смысл, когда у тебя было 4 ядра, а у конкурента 2, и те кипятильник. Тогда это была драматическая разница в отзывчивости ПК. А сейчас, когда 4-6 ядра это обычные процессоры, для 99+% потребителей настольных процессоров нет никакой разницы между 8 и 16 ядрами.
Энергоэффективные ядра — полноценные, они принципиально отличаются отсутствием поддержки AVX.
Мне не очень понятна угроза, от которой защищаемся. Может поясните?
1080@25 — AV1 декодируется нормально, загрузка CPU 16-20%, фоновая 9-10%.
4k@25 — AV1 декодируется нормально, загрузка CPU 25-41%, фоновая 8-11%.
8k@25 — AV1 декодируется c значительными фризами, загрузка CPU 76-91%, фоновая 9-12%.
Так что если выбирать не печатную машинку, то для 4k AV1 аппаратная поддержка не нужна. Процессора из этой новости будет более чем достаточно.
Странно другое, на Youtube при воспроизведении роликов c AV1 в названии выбирает перекодированное VP9 видео.
Кроме того один и тот же ролик в одном и том же 4K разрешении может один раз открыться как VP9, в другой как AV1.
Наверное поэтому пока проблема с воспроизведением AV1 на старых и/или медленных процессорах не воспроизводится массово.
Ответ Sawaru на комментарий
Это утверждение основано на домыслах а не фактах. Если браузер не видит аппаратной поддержки конкретного декодера на видеокарте, то декодировать будет программно, т.е. не на видеокарте. А аппаратная поддержка AV-1 есть только у RTX серии 3000, и Radeon серии 6000.
Ответ Sawaru на комментарий
Ультрабуки с топовыми процессорами дешевыми не бывают. Зачастую они комплектуются экранами 4К. Купить ноут за 100к+ и видеть тормоза при просмотре Ютуба это не то, о чем мечтает каждый покупатель.
Ответ Sawaru на комментарий
Вопрос к Вашей методике тестирования. Сейчас поддержка VP9 есть практически на всех актуальных картах, разница в декодировании на VP9 на видеокарте и AV1 на процессоре должна быть заметной.
Ответ Sawaru на комментарий
То что их сейчас нет в заметных количествах на том же Ютубе не отменяет того, что AV1 уже стал де факто следующим промышленным стандартом. Кроме того, есть большое количество видео сайтов, где этот кодек будет применяться уже в ближайшие годы.
Ответ Sawaru на комментарий
Ноутбук уже может быть с 4K экраном. Также сценарий с подключением внешнего монитора на 4к-8к экрану является обыденным, в части 4K сейчас и 8K через пару лет.
Ноутбуки на топовых процессорах покупаются все-таки не на один год (по крайней мере в этой стране).
И что там с автономностью? Не жрут ли батарею?
А как насчет нагрева? Может там жидкий азот нужен для охлаждения?
Северный мост теперь встроен в процессор вместе с контроллером памяти. И делалось это ради повышения интеграции и уменьшения задержек при работе с памятью.
Вынесение GPU на чипсет (читай южный мост) приведет к следующим последствиям:
1) южный мост будет очень дорогой и горячий (чипсет делается по старым тех процессам). Т.е. материнская плата будет дорогой и очень горячей, с активным охлаждением чипсета;
2) на порядок повысятся задержки между GPU и памятью;
3) ПСП между чипсетом и процессором снизится на величину, отведенную для GPU.
Т.е. этот вариант по потребительским качествам будет хуже, чем существующий.
Лучше уж пусть сделают многоканальный контроллер памяти (3-4 канала) и материнские платы под него.
Тогда можно будет взять APU и получить 100+ Гб/с ПСП с DDR4 3200. А если брать топовую память, то и выше. Т.е. такой вариант полностью сделает ненужными все затычки.