Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Могли с помощью райзера как угодно развернуть, но реализовали очень неудобно.
avatar
Тактильно самая лучшая спинка была у Samsung Galaxy Alpha SM-G850F: материал задней крышки — пластик с бархатистым покрытием, Поверхность крышки негладкая, когда достаешь телефон, рука буквально прилипает к крышке, не скользит. Выронить из рук телефон о-о-очень сложно.
avatar
кажется кто-то не смог в иронию.
avatar
Эффективность HT сильно зависит от выполняемых приложений.
Но в среднем, дает от -5% до +30% прироста. Вспомните тесты i7-8700K и i7-9700K, сравните с i9-9900K.
avatar
Так за это надо AMD сказать спасибо. Бульдозеры же сами представлялись как 8/6/4 ядерные. Вот только не все ядра одинаково могли в FPU.
avatar
А я вот хочу и быстрые и энергоэффективные ядра одновременно на десктопе.
Половина времени (а скорее больше 95%) он все равно простаивает.
Вот и пусть всякую фоновую муть выполняют энергоэффективные ядра. Зато будет без нагрева, тихо, и экономично по потреблению.
avatar
Microsoft обновляет планировщик и никаких проблем не будет.
Ну и кроме того, посмотрите что там с 16+ ядерными процессорами происходит: там теплопакет начинается с 105 ну и еще цены не гуманные. Причем 105Вт это при загрузке всех ядер на минимальной частоте 3500Мгц да еще и без AVX. То есть получается 16 медленных ядер. Зачем они сейчас рядовому потребителю?
Не только лишь все видеопродакшеном и VPS-хостингом на обычных ПК занимаются :-) Сама по себе гонка ядер смысла для потребителя не имеет. Имеет смысл гонка потребительских качеств: производительность на $, производительность на ватт.
А эти 20 потоков будут существенно экономить электричество, причем потребность а охлаждении будет не значительна.
Топовый десктопный Интел снова возвращается к 95Вт TDP. Разве от этого кому-то плохо?
P.S.: Гонка за ядра имела смысл, когда у тебя было 4 ядра, а у конкурента 2, и те кипятильник. Тогда это была драматическая разница в отзывчивости ПК. А сейчас, когда 4-6 ядра это обычные процессоры, для 99+% потребителей настольных процессоров нет никакой разницы между 8 и 16 ядрами.
avatar
Здесь уже был обзор ноутбука на Alder Lake процессоре с формулой 4+1.
Энергоэффективные ядра — полноценные, они принципиально отличаются отсутствием поддержки AVX.
avatar
А какие еще способы порулить интернетом Вы знаете, кроме DNS и «замедлять пакеты»?
Мне не очень понятна угроза, от которой защищаемся. Может поясните?
avatar
Северная Корея №2
avatar
Два + этому джентельмену
avatar
Тепловые переходы помогут решить эту проблему.
avatar
Да норм шутка. Ты что не знаешь что ему интернет распечатывают, чтобы показать?
avatar
Пока нет поводов расстраиваться. Когда AV1 заполонит рынок, думаю у Вас либо видеокарта появится под AV1 (какая нибудь RTX 3xxx, или Radeon 6xxx), либо апгрейд платформы произойдет.
avatar
Разница в архитектуре ядра.
avatar
Проверял на Ryzen 5 2600 на Youtube:
1080@25 — AV1 декодируется нормально, загрузка CPU 16-20%, фоновая 9-10%.
4k@25 — AV1 декодируется нормально, загрузка CPU 25-41%, фоновая 8-11%.
8k@25 — AV1 декодируется c значительными фризами, загрузка CPU 76-91%, фоновая 9-12%.
Так что если выбирать не печатную машинку, то для 4k AV1 аппаратная поддержка не нужна. Процессора из этой новости будет более чем достаточно.
Странно другое, на Youtube при воспроизведении роликов c AV1 в названии выбирает перекодированное VP9 видео.
Кроме того один и тот же ролик в одном и том же 4K разрешении может один раз открыться как VP9, в другой как AV1.
Наверное поэтому пока проблема с воспроизведением AV1 на старых и/или медленных процессорах не воспроизводится массово.
avatar

Ответ Sawaru на комментарий
Вообще не актуален. Просто потому, что дискретка спокойно пережует всё сама.


Это утверждение основано на домыслах а не фактах. Если браузер не видит аппаратной поддержки конкретного декодера на видеокарте, то декодировать будет программно, т.е. не на видеокарте. А аппаратная поддержка AV-1 есть только у RTX серии 3000, и Radeon серии 6000.

Ответ Sawaru на комментарий

Этот вопрос актуален лишь для недорогих ноутбуков, т.е. для самых младших линеек. Ибо даже старшие U процессоры будут идти только с дискретной графикой или в ультрабуках.
И вот тут да неприятно, но тем не менее можно будет декодировать видео на самом apu.


Ультрабуки с топовыми процессорами дешевыми не бывают. Зачастую они комплектуются экранами 4К. Купить ноут за 100к+ и видеть тормоза при просмотре Ютуба это не то, о чем мечтает каждый покупатель.

Ответ Sawaru на комментарий

Вот например у меня дискретка без AV1, включаю ютуб 1080@60 AV1| 1080@60 VP9 | 4320@60 VP9, разницы в том же потреблении нет.


Вопрос к Вашей методике тестирования. Сейчас поддержка VP9 есть практически на всех актуальных картах, разница в декодировании на VP9 на видеокарте и AV1 на процессоре должна быть заметной.

Ответ Sawaru на комментарий

А роликов 4к-8к, на AV1 в ютубе, при беглом осмотре я не нашёл.


То что их сейчас нет в заметных количествах на том же Ютубе не отменяет того, что AV1 уже стал де факто следующим промышленным стандартом. Кроме того, есть большое количество видео сайтов, где этот кодек будет применяться уже в ближайшие годы.

Ответ Sawaru на комментарий

Ситуация получается такая, пользы от AV1, на данный момент, мало, не говоря уже том, что его наличие плохо скажется лишь на ограниченном кол-ве моделей.
Что означает, ну и фиг с ним, нету и нету, чо бухтеть то.
Т.е. что бы он понадобился, нужно взять дешевый/тонкий ноут без дискретки, подключить к 4к-8к экрану, при том исключая VP9. И вот тогда, может быть, это будет полезно.


Ноутбук уже может быть с 4K экраном. Также сценарий с подключением внешнего монитора на 4к-8к экрану является обыденным, в части 4K сейчас и 8K через пару лет.
Ноутбуки на топовых процессорах покупаются все-таки не на один год (по крайней мере в этой стране).
avatar
А аппаратный декодер AV1 есть в видеоядре этих чрезвычайно мощных процессорах?
И что там с автономностью? Не жрут ли батарею?
А как насчет нагрева? Может там жидкий азот нужен для охлаждения?
avatar
CPU+GPU в одном кристалле нужны для компактных систем, в т.ч. ноутбуков.
Северный мост теперь встроен в процессор вместе с контроллером памяти. И делалось это ради повышения интеграции и уменьшения задержек при работе с памятью.
Вынесение GPU на чипсет (читай южный мост) приведет к следующим последствиям:
1) южный мост будет очень дорогой и горячий (чипсет делается по старым тех процессам). Т.е. материнская плата будет дорогой и очень горячей, с активным охлаждением чипсета;
2) на порядок повысятся задержки между GPU и памятью;
3) ПСП между чипсетом и процессором снизится на величину, отведенную для GPU.
Т.е. этот вариант по потребительским качествам будет хуже, чем существующий.
Лучше уж пусть сделают многоканальный контроллер памяти (3-4 канала) и материнские платы под него.
Тогда можно будет взять APU и получить 100+ Гб/с ПСП с DDR4 3200. А если брать топовую память, то и выше. Т.е. такой вариант полностью сделает ненужными все затычки.
avatar
Я бы уточнил, что 21:9 просто встречается. Так как кроме Сони и единственной модели Motorolla их больше не делает никто.