Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
У них Болливуд интересные фильмы снимает. А у нас покупать телевизор, чтобы смотреть первый канал?
По телевизору все смотрят одно и то же. А если смотреть видосики из интернета, то каждый хочет смотреть что-то своё, а это уже планшеты и ноутбуки.
Dell XPS 13 стоит от 130к за 6 ядерник. В нём нет ни одного USB, нет LAN, везде предустановлена винда, нет SD.
Я представляю, подхожу к станку с ноутбуком, из type-C висит USB хаб, в хаб включаю программатор и прошиваю станок. Я так и буду по заводу с висящим из ноутбука USB хабом ходить?
Ноутбук пока простаивает, помогает сетевому распределённому рендерингу. Wi-Fi у нас работает 4 Мб/сек, а LAN 100 Мб/сек. Там уже всё отрендерится, пока на ноутбук текстуры скачаются. Или опять покупать внешнюю сетевую карту? А куда её включать, если я подключу в один Type-C монитор 4K, в другой подключу мышь и программатор, а куда сетевую карту вставлять?
Мы когда товар фотографируем, фотографии получаются на карточке SDXC, а её воткнуть некуда. Лол. Недобук за 130000-160000 рублей, который ничего не умеет.
Я уж боюсь представить как я должен на совещании презентации на проекторе с HDMI показывать, опять переходник на HDMI покупать и с собой носить?
А ноутбук на базе 8-ядерника ryzen стоит от 55к рублей, в котором всё это есть, но зачем то замедлен в 2 раза HDMI, процессор может HDMI 2.0, а порт в ноутбуке HDMI 1.4 Это всё равно, что сделать спорткар с 8-скоростной коробкой передач, а рычаг переключения передач сделать 3-ступенчатым.
PS
А в Dell XPS 13 есть FreeSync? Без него точно не вариант 4К экран подключать.
Подключил старый диск, посмотрел что там тестировал. У меня тогда получилось, что H264 жмёт в 10 раз быстрее, чем H265, а качество выше, чем H265 placebo.
Работает это на демонстрации экрана, демках игр типа heroes3, starcraft, настольных, короче, где много статичной картинки.
Ролик heroes3 142 сек 800x600 15fps
ssim 22,921
psnr 43,239
Сжимался модифицированным fastest(an2) за 1 минуту до 0.3 mbps на 4 ядра 2.6Ghz
Качество не самое высокое, но смотреть удобно.
Чужие ролики обычно с битрейтом в 5 раз выше, а качеством хуже.
Сжатие на H264 в placebo было в 3.5 раза дольше и качество значительно хуже.
Если интересно, наибольший эффект давали:
RC-lookahead 90
QP0,3
var1,3 (не помню что это, но от 0.6 до 2.0 менялось)
mhex_32
bfr_1 (чтобы скорость была максимальной)
Скорость сжатия стала быстрее самого быстрого fastest, а качество сжатия выросло на порядок.
Почему я это пишу? Когда-то заморочился, изучил 264 кодек, хотел, чтобы демки к играм записывали в отличном качестве не занимая много места, но так и не продвинул информацию. Надеюсь кто-нибудь прочитает и кому-нибудь пригодится это.
С НЗ как раз проблем нет — есть же солнечные батареи. У катера соотношение площади поверхности к объёму батареи на порядок больше, чем у автомобиля. Плёночные солнечные батареи могут стоить 1000-4000 руб/м2 с КПД 8-10%, кремниевые пластины 2000 руб/м2 с КПД 18-19%. И соотношение стоимости солнечных батарей на лодке к стоимости аккумулятора совсем небольшое.
Разместить 20 м2 солнечных батарей на крыше за 1000$. Солнце на севере Европы и в РФ даёт 3 кВт*ч в сутки в среднем, летом точно больше. Итого 60 кВт*ч, 10% КПД, подзарядка от Солнца 6 кВт*ч в сутки. Машине этого хватит на 30км, а катеру считайте сами. Уж точно хватит доплыть от середины озера к пристани в солнечный день.
Я лет 10 назад пытался демки смотреть по Starcraft2, качество было чудовищнейшее, а битрейт 1.5 mbps. Я записал демку сам в loseless кодеке и сжал её в 1080p@60 H264 в 1.5 mbps в качестве практически не отличимом от оригинала. Правда, с сильно завышенным GOP и keyint, то есть перемотка видео идёт большими скачками. Скорость сжатия даже 10 лет назад была почти как у реалтайма. Жаль, что это никуда не смог продвинуть, чтобы демки записывали качественно.
Я тогда видео на ютуб загрузил, качество стало на порядок хуже, а битрейт больше.
Но тогда я чётко понял, что в подобных видео fastest+двойной keyint жмёт лучше и на порядок быстрее, чем placebo.
В 3daction, наверное, подобная тема не прокатит.
В Heroes3 ещё демки пытался смотреть, битрейт >1mbps, смотреть невозможно, размазня. Сам записал в разрешении 800х600 в 0.3 mbps, всё качественно получилось, могу 3-мегабайтный отрезок скинуть, 2 минуты.
Производителям ноутбуков надо уволить всех маркетологов и начать делать нормальные ноутбуки. И уж точно уволить без выходного пособия всех, кто придумал ставить тонкие кнопки ради уменьшения толщины ноутбука.
В Ryzen 3500U был HDMI 2.0 (4K@60hz), в Ryzen 4700U опять вернули HDMI 1.4 (4K@30hz)
http://h20195.www2.hp.com/v2/GetDocument.aspx?docname=4AA7-7152RUE&doctype=data%20sheet
Потом ещё удивляются, что продажи ноутбуков упали.
Нет ни одного ноутбука для программиста (например, GNU C++) с подключением 4K экрана! Без дискретного видео, с 4K@60hz и без винды.
Да, вы правы, немного не то, но что нашёл :)
Мне понравилось, что даже старый 4-ядерный ноутбучный проц может воспроизвести 4К AV1 c битрейтом 3-8 mbps и довольно статичными сценами ценой 20-22 Вт. Насколько я знаю, статичные сцены легко декодировать, это лекции, запись экрана, динамичные пейзажики, таймлапсы и т.д.
GPU Intel моего поколения не поддерживает Freesync, поэтому динамичные сцены рвутся пополам каждый кадр, невозможно смотреть. И порт ограничен 30Hz, то есть 60 fps не увидеть.
Думаю, ноутбучный Ryzen 4000 будет декодировать видео AV1 4K 5000 kbps за 10-15 Вт на процессоре.
Видео 4K с т**рентов обычно 30-60 mbps H264, было бы здорово, когда-нибудь оно станет 5-8 mbps AV1 или 266.
https://www.techpowerup.com/img/12-05-17/155a.jpg фотография чипа Nvidia с размеченными блоками, действительно, видеокодирующий блок незаметен на фоне остальных.
8K + одно ядро, Джоуолей на кадр
CPU 4 Дж
CPU 2.5 Дж, GPU 9.5 Дж
CPU 3.5 Дж, GPU 10 Дж
8K + 16 ядер, Джоуолей на кадр
CPU 1.5 Дж
CPU 1 Дж, GPU 2.9 Дж
CPU 1.5 Дж, GPU 2.2 Дж
Благодарю за подробный ответ. Нашёл статью https://www.inesc-id.pt/publications/13540/pdf/
Правда, она про HEVC.
На 95 странице написано (Table1), что одна стадия ED плохо паралеллится, а остальные хорошо.
На 99 странице картинкой показано, как они ED оставляют на CPU, а остальное сваливают на GPU.
На 100 странице график, сколько надо CPU для декодирования HEVC
4K@25fps 1 ядро без GPU
4K@60fps 4 ядра без GPU или 2 ядра с GPU
8K@25fps 6 ядер без GPU или 4 ядра с GPU
8K@60ps 18 ядер без GPU или 18-20 ядер с GPU
На 102 странице нарисовано, что CPU+GPU для декодирования жрёт в разы больше энергии, чем чисто CPU.
На 103 странице есть график зависимости количества энергии на декодировку 4K HEVC фрейма и FPS на 4-ядерном и 16-ядерном CPU+GPU.
Потом они частоты GPU занижают, чтобы так не жрало.
Ну и вывод делают, что если проц не тянет HEVC, то видюха может помочь ценой в разы большего энергопотребления, а если проц тянет, то видюху лучше не напрягать. Ну и выбивают 300+ fps HEVC 4K на 16-ядернике.
Да, и если битрейт небольшой, то нагрузка на CPU очень сильно падает. Что как раз актуально для онлайн видео. А если кодек хороший и может фильмы ужать до 4K 5kbit
Измерил на своём ноутбуке Intel 4 ядра 14нм 2.8 ГГц.
AV1 540p 909 kbps нагрузка 15%, CPU +4W, GPU + 0.4W.
AV1 1080p 2194 kbps нагрузка 60%, CPU +12W, GPU +0.8W.
AV1 2160p 5994 kbps нагрузка 100%, CPU +20W, 80 градусов, совершенно не справляется.
Образцы видео отсюда http://download.opencontent.netflix.com/?prefix=AV1/Sparks/
Кодек: K-lite. Win7-64.
Думаю, что Ryzen 5-3500 Matisse 65W 3600MHz 12к рублей уже потянет этот образец AV1 4K.
У кого есть подобный проц или дискретная видеокарта, испытайте, пожалуйста.
И второе видео Summer Nature https://www.elecard.com/ru/videos
Совсем чуть чуть ноутбуку не хватает плавно проигрывать 4K@25fps. Думаю, что ноутбучный Ryzen 4 в софтварном режиме легко подобное видео сможет декодировать, и даже с AV1 4K@60fps справится.
Format: AV1
Format/Info: AOMedia Video 1
Format profile: Main@L5.0
Codec ID: V_AV1
Duration: 2 min 24 s
Bit rate: 21.8 Mb/s
Width: 3 840 pixels
Height: 2 160 pixels
Display aspect ratio: 16:9
Frame rate mode: Constant
Frame rate: 25.000 FPS
Color space: YUV
Chroma subsampling: 4:2:0
Bit depth: 8 bits
Объясните, кто знает, зачем вообще нужна аппаратная поддержка видеокодека? Чтобы расшифровывать видеопоток потребляя меньше электричества? Чтобы фризов меньше было? Почему нельзя на центральном процессоре или на универсальных процессорах видеокарты декодировать?
Сколько к видеокарте блок кодирования и декодирования видео добавляет к цене и к количеству транзисторов?
Ну ладно смартфон или 2-ядерный ноутбук, понятно. А зачем в RTX 3080 блок декодирования H264? Она может на своих разрекламированных CUDA ядрах хоть 40К декодировать.
У нас бы посадили за найденную первую же. А саму уязвимость не закрыли. Прецеденты были. Дал бы ссылку, но администрация ixbt удаляет посты с ссылками.
Машина, вези по адресу.
— нельзя, у тебя рабочее время на заводе;
— нельзя, суд запретил тебе заезжать в этот район;
— нельзя, в лес за грибами не повезу;
— нельзя, вы признаны неблагонадёжным гражданином, вам двойной тариф;
— нельзя, у вас отсутствует подкожный чип, вы нераспознаны;
— нельзя, у вас отсутствует прививка от ковида, вы можете начихать в салоне.
Отдавать свободы железкам на колёсах и их сисадминам очень глупо. Почитайте Оруэлла на досуге. У жены **вального, как бы кто к нему не относился, -5 миллионов рублей на карточке, то есть её ни одно роботакси никогда никуда не повезёт.
Вот график цен. В июле 3900X стоил от $389.99, а сейчас $429.
https://www.cpubenchmark.net/cpu.php?cpu=AMD+Ryzen+9+3900X&id=3493
В июле выгодно было покупать особенно за рубли. Можно было и RTX 2060 Super урвать самую лучшую по соотношению качества/цена, а сейчас всё дорожает и дорожает.
Зашёл на ixbt найти в комментах цены на 3000 серию в момент презентации. Плюсанул.
Анекдот вспоминается, как зека поздравляют с новым годом летом потому, что годик на пересуде накинули.
Разгонят с 105 до 150 ватт и за счёт этого объявят однопоточное ускорение?
16+16 кеш объединят в 32, что тоже однопоточную поднимет?
У них новый техпроцесс, способный ещё плотнее разместить транзисторы?
6-8 ядерники хорошо должны для игр подойти.
12-16 ядерники подойдут для рабочих и кре… короче, компилить и рендерить.
Сегодня узнаем, кто ты такой — Vermeer.
По телевизору все смотрят одно и то же. А если смотреть видосики из интернета, то каждый хочет смотреть что-то своё, а это уже планшеты и ноутбуки.
Я представляю, подхожу к станку с ноутбуком, из type-C висит USB хаб, в хаб включаю программатор и прошиваю станок. Я так и буду по заводу с висящим из ноутбука USB хабом ходить?
Ноутбук пока простаивает, помогает сетевому распределённому рендерингу. Wi-Fi у нас работает 4 Мб/сек, а LAN 100 Мб/сек. Там уже всё отрендерится, пока на ноутбук текстуры скачаются. Или опять покупать внешнюю сетевую карту? А куда её включать, если я подключу в один Type-C монитор 4K, в другой подключу мышь и программатор, а куда сетевую карту вставлять?
Мы когда товар фотографируем, фотографии получаются на карточке SDXC, а её воткнуть некуда. Лол. Недобук за 130000-160000 рублей, который ничего не умеет.
Я уж боюсь представить как я должен на совещании презентации на проекторе с HDMI показывать, опять переходник на HDMI покупать и с собой носить?
А ноутбук на базе 8-ядерника ryzen стоит от 55к рублей, в котором всё это есть, но зачем то замедлен в 2 раза HDMI, процессор может HDMI 2.0, а порт в ноутбуке HDMI 1.4 Это всё равно, что сделать спорткар с 8-скоростной коробкой передач, а рычаг переключения передач сделать 3-ступенчатым.
PS
А в Dell XPS 13 есть FreeSync? Без него точно не вариант 4К экран подключать.
Работает это на демонстрации экрана, демках игр типа heroes3, starcraft, настольных, короче, где много статичной картинки.
Ролик heroes3 142 сек 800x600 15fps
ssim 22,921
psnr 43,239
Сжимался модифицированным fastest(an2) за 1 минуту до 0.3 mbps на 4 ядра 2.6Ghz
Качество не самое высокое, но смотреть удобно.
Чужие ролики обычно с битрейтом в 5 раз выше, а качеством хуже.
Сжатие на H264 в placebo было в 3.5 раза дольше и качество значительно хуже.
Если интересно, наибольший эффект давали:
RC-lookahead 90
QP0,3
var1,3 (не помню что это, но от 0.6 до 2.0 менялось)
mhex_32
bfr_1 (чтобы скорость была максимальной)
Скорость сжатия стала быстрее самого быстрого fastest, а качество сжатия выросло на порядок.
Почему я это пишу? Когда-то заморочился, изучил 264 кодек, хотел, чтобы демки к играм записывали в отличном качестве не занимая много места, но так и не продвинул информацию. Надеюсь кто-нибудь прочитает и кому-нибудь пригодится это.
Разместить 20 м2 солнечных батарей на крыше за 1000$. Солнце на севере Европы и в РФ даёт 3 кВт*ч в сутки в среднем, летом точно больше. Итого 60 кВт*ч, 10% КПД, подзарядка от Солнца 6 кВт*ч в сутки. Машине этого хватит на 30км, а катеру считайте сами. Уж точно хватит доплыть от середины озера к пристани в солнечный день.
Я тогда видео на ютуб загрузил, качество стало на порядок хуже, а битрейт больше.
Но тогда я чётко понял, что в подобных видео fastest+двойной keyint жмёт лучше и на порядок быстрее, чем placebo.
В 3daction, наверное, подобная тема не прокатит.
В Heroes3 ещё демки пытался смотреть, битрейт >1mbps, смотреть невозможно, размазня. Сам записал в разрешении 800х600 в 0.3 mbps, всё качественно получилось, могу 3-мегабайтный отрезок скинуть, 2 минуты.
В Ryzen 3500U был HDMI 2.0 (4K@60hz), в Ryzen 4700U опять вернули HDMI 1.4 (4K@30hz)
http://h20195.www2.hp.com/v2/GetDocument.aspx?docname=4AA7-7152RUE&doctype=data%20sheet
Потом ещё удивляются, что продажи ноутбуков упали.
Нет ни одного ноутбука для программиста (например, GNU C++) с подключением 4K экрана! Без дискретного видео, с 4K@60hz и без винды.
Мне понравилось, что даже старый 4-ядерный ноутбучный проц может воспроизвести 4К AV1 c битрейтом 3-8 mbps и довольно статичными сценами ценой 20-22 Вт. Насколько я знаю, статичные сцены легко декодировать, это лекции, запись экрана, динамичные пейзажики, таймлапсы и т.д.
GPU Intel моего поколения не поддерживает Freesync, поэтому динамичные сцены рвутся пополам каждый кадр, невозможно смотреть. И порт ограничен 30Hz, то есть 60 fps не увидеть.
Думаю, ноутбучный Ryzen 4000 будет декодировать видео AV1 4K 5000 kbps за 10-15 Вт на процессоре.
Видео 4K с т**рентов обычно 30-60 mbps H264, было бы здорово, когда-нибудь оно станет 5-8 mbps AV1 или 266.
https://www.techpowerup.com/img/12-05-17/155a.jpg фотография чипа Nvidia с размеченными блоками, действительно, видеокодирующий блок незаметен на фоне остальных.
CPU 4 Дж
CPU 2.5 Дж, GPU 9.5 Дж
CPU 3.5 Дж, GPU 10 Дж
8K + 16 ядер, Джоуолей на кадр
CPU 1.5 Дж
CPU 1 Дж, GPU 2.9 Дж
CPU 1.5 Дж, GPU 2.2 Дж
Правда, она про HEVC.
На 95 странице написано (Table1), что одна стадия ED плохо паралеллится, а остальные хорошо.
На 99 странице картинкой показано, как они ED оставляют на CPU, а остальное сваливают на GPU.
На 100 странице график, сколько надо CPU для декодирования HEVC
4K@25fps 1 ядро без GPU
4K@60fps 4 ядра без GPU или 2 ядра с GPU
8K@25fps 6 ядер без GPU или 4 ядра с GPU
8K@60ps 18 ядер без GPU или 18-20 ядер с GPU
На 102 странице нарисовано, что CPU+GPU для декодирования жрёт в разы больше энергии, чем чисто CPU.
На 103 странице есть график зависимости количества энергии на декодировку 4K HEVC фрейма и FPS на 4-ядерном и 16-ядерном CPU+GPU.
Потом они частоты GPU занижают, чтобы так не жрало.
Ну и вывод делают, что если проц не тянет HEVC, то видюха может помочь ценой в разы большего энергопотребления, а если проц тянет, то видюху лучше не напрягать. Ну и выбивают 300+ fps HEVC 4K на 16-ядернике.
Да, и если битрейт небольшой, то нагрузка на CPU очень сильно падает. Что как раз актуально для онлайн видео. А если кодек хороший и может фильмы ужать до 4K 5kbit
AV1 540p 909 kbps нагрузка 15%, CPU +4W, GPU + 0.4W.
AV1 1080p 2194 kbps нагрузка 60%, CPU +12W, GPU +0.8W.
AV1 2160p 5994 kbps нагрузка 100%, CPU +20W, 80 градусов, совершенно не справляется.
Образцы видео отсюда http://download.opencontent.netflix.com/?prefix=AV1/Sparks/
Кодек: K-lite. Win7-64.
Думаю, что Ryzen 5-3500 Matisse 65W 3600MHz 12к рублей уже потянет этот образец AV1 4K.
У кого есть подобный проц или дискретная видеокарта, испытайте, пожалуйста.
И второе видео Summer Nature https://www.elecard.com/ru/videos
Совсем чуть чуть ноутбуку не хватает плавно проигрывать 4K@25fps. Думаю, что ноутбучный Ryzen 4 в софтварном режиме легко подобное видео сможет декодировать, и даже с AV1 4K@60fps справится.
Format: AV1
Format/Info: AOMedia Video 1
Format profile: Main@L5.0
Codec ID: V_AV1
Duration: 2 min 24 s
Bit rate: 21.8 Mb/s
Width: 3 840 pixels
Height: 2 160 pixels
Display aspect ratio: 16:9
Frame rate mode: Constant
Frame rate: 25.000 FPS
Color space: YUV
Chroma subsampling: 4:2:0
Bit depth: 8 bits
Сколько к видеокарте блок кодирования и декодирования видео добавляет к цене и к количеству транзисторов?
Ну ладно смартфон или 2-ядерный ноутбук, понятно. А зачем в RTX 3080 блок декодирования H264? Она может на своих разрекламированных CUDA ядрах хоть 40К декодировать.
— нельзя, у тебя рабочее время на заводе;
— нельзя, суд запретил тебе заезжать в этот район;
— нельзя, в лес за грибами не повезу;
— нельзя, вы признаны неблагонадёжным гражданином, вам двойной тариф;
— нельзя, у вас отсутствует подкожный чип, вы нераспознаны;
— нельзя, у вас отсутствует прививка от ковида, вы можете начихать в салоне.
Отдавать свободы железкам на колёсах и их сисадминам очень глупо. Почитайте Оруэлла на досуге. У жены **вального, как бы кто к нему не относился, -5 миллионов рублей на карточке, то есть её ни одно роботакси никогда никуда не повезёт.
https://www.cpubenchmark.net/cpu.php?cpu=AMD+Ryzen+9+3900X&id=3493
В июле выгодно было покупать особенно за рубли. Можно было и RTX 2060 Super урвать самую лучшую по соотношению качества/цена, а сейчас всё дорожает и дорожает.
Анекдот вспоминается, как зека поздравляют с новым годом летом потому, что годик на пересуде накинули.
16+16 кеш объединят в 32, что тоже однопоточную поднимет?
У них новый техпроцесс, способный ещё плотнее разместить транзисторы?
6-8 ядерники хорошо должны для игр подойти.
12-16 ядерники подойдут для рабочих и кре… короче, компилить и рендерить.
Сегодня узнаем, кто ты такой — Vermeer.