Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Так про ютуб речь не шла, на него можно что хочешь выкладывать.
А для себя тоже не вижу смысла перекодировать то что выдал телефон. Я например на телефоне поставил битрейт 125 мбит для 4к видео.
Раздутием битрейта повышать качество кодирования тяжелых видео (легкие на соврменных процах быстры) эт феерично конечною.
Вы наверное просто не пробовали кодировать с максимальными и пред максимальными пресетами качества в x264, x265, это совсем не быстро и тем более по сравнению с видеокартой.
А если брать стандартные пресеты x264, x265, то RTX серия уже кодирует практически на том же уровне качества.
И раздутием битрейта тоже можно повышать качество например если видос или стрим для того же ютуба.
avatar
Декодирование не поганит качество, декодируется всё по стандарту, а доп улучшатели которые есть в плеерах, должны работать и с аппаратным декодированием, но честно это я не тестировал.
Кодируют видеокарты уже не плохо (особенно если кодировать с CRF а не битрейтом), а 2000 серия и h265 неплохо кодирует, в любом случае разница убирается повышенным битрейтом при кодировании видеокартой.
--------------------------------------------
Не спорю, если надо закодировать видео в какой-то определённый битрейт, но с максимальным качеством, то тут только x264, x265 и в 2 прохода. А потоковое всегда будет хуже просто из-за плохого распределения битрейта.
avatar
Тут в коментах кто-то предположил, что это из-за цветовой дискретизации 4:2:0.
В принципе может быть так и есть, а проверить никак нельзя, потому-что все фильмы с 4:2:0.
С дискретизацией 4:2:0 цветовое разрешение составляет 50% от яркостного, то есть на 4 пикселя яркости 1 цвет, такие вот кубики 2х2. В 4к фильме цветовое разрешение выходит как раз 1080р.

Ответ P_C на комментарий
чтобы не заниматься перегонкой годами

Да не, 4к и 1080р скорее всего делается из одного итогового, так что дело похоже именно в цветовом разрешении, оно добавляет размытость.
Да и конвертировать цвет быстро, хоть из rgb в yuv, хоть обратно.
avatar
Не только в h265, а вообще любых, сейчас всё видео с дискретизацией 4:2:0 не зависимо от кодеков.
Ну а блочных искажений там нету, даже если пожать исходник UHDblu-ray или Blu-ray в 3 раза.
Я недавно чисто из интереса сжимал Blu-ray в h265 с битрейтом около 3000 кбит, никаких артефактов нету, просто мыло и всё.
avatar
Я конечно в этом не шарю и могу ошибаться, но нельзя что-ли прикрутить к nas-у дешёвый ПК для кодирования или сделать из такого ПК nas?
Даже gtx 1050 может кодировать в 4к в рилтайме, а в 1080р она спокойно сможет кодировать и 3 потока.
avatar
Вот я специально сравнивал, брал UHD Blu-ray и воспроизводил на 1080р мониторе и он получается чётче чем простой Blu-ray, который 1080р. Значит и с 8к будет так же, только фильмов 8к пока нет и неизвестно когда будут.
Вот так вот в студии делают мыло, а ещё и шум делают, чтобы это было похоже на плёнку.
А в реальности мой телефон снимает чётче чем в фильме.
avatar
Может я и странный, но вот когда смотрю фильмы очень часто стопаю и щёлкаю по кадрам, чтобы лучше рассмотреть. Так что и таким увеличением бы пользовался.
Но я на телевизоре не смотрю, потому что он слишком далеко, если смотреть с дивана (3 метра), то надо диагональ от 100 дюймов, иначе не видно всё качество, так-как зрение у меня -0.5.
avatar
Вот только играм эта распаковка не нужна.
По крайней мере на ПК все тяжёлые игры уже запакованы и поэтому аппаратное сжатие контроллером ssd не даст абсолютно никакого прироста в этих играх.
Если предположить, что игры для ps5 будут не сжатые, а сжимать и распаковывать будет сам SSD, то в таком случае игры будут весить больше потому что быстрые алгоритмы по типу lz4 сжимают плохо. А игры и так весят не мало.
avatar
А лучше использовать 4к, качество в любом случае будет лучше.
Но это мало кто знает, мало кто знает что имея монитор 1920х1080, можно получать стрим в 4к.
Стримы игр в 1440р на ютубе и до 720р не дотягивают по качеству, а если резко повернуть камеру, то можно получить просто мазню.
avatar
Да зачем вам эта аппаратная поддержка то?
Что у вас за железо такое, что не тянет?
Вот будет аппаратная поддержка и что вы сразу будете железо менять из-за этого?
У меня вот ноут чисто на процессоре i5-2520m тянет av1 1080p с ютуба.
Но смотреть av1 то я всё равно не будут, а почему не буду написал ниже.
avatar
Ну вот пока что всё ровно наоборот, все видосы 50-60 fps, которые уже закодировали в av1, весят в 2 раза меньше чем в vp9, увы, но av1 не такой хороший чтобы показывать лучше качество при в 2 раза меньшем битрейте.
Так что пока все видосы 50-60 fps с av1 стали только хуже.
Вот с видосами 24-30 fps пока что всё нормально и они весят +- столько же сколько с кодеком vp9, поэтому лучше по качеству.
Но ведь сейчас большинство делает как раз 50-60 fps видосы.
avatar
По этому то я никогда не смотрю с дивана, а смотрю на мониторе как можно ближе.
ИМХО, чтобы смотреть с дивана, с 2-3 метров нужно что-то с диагональю от 78 дюймов.
На 1080р мониторе видно, что UHD blu-ray чуть по чётче чем обычный blu-ray.
А на 4к мониторе 1080р вообще мыло.
Битрейт как раз проще отличить, чем разрешение, если там у потокового сервиса что-то типо 5 мбит для 1080р, тогда как у blu-ray 25-30 мбит.
Конечно если брать хороший рип, то разницу между 10-15 мбит и 25-30 мбит искать только с лупой, но потоковые сервисы как раз и качеством не отличаются.
Выходит качества нет, битрейта нет, смысла смотреть такое мыло не вижу, так-как у меня без проблем тянет blu-ray онлайн через uTorrent, при интернете 100 мбит.
avatar
Разрешение никак не ограничено, любой кодек можно использовать с любым разрешением.
Всё остальное — это предпочтения тех, кто делает рипы и/или возможности их железа.
Есть рипы 4к, но с h264 кодеком, для тех у кого не тянет h265.
И так же есть 1080р и 720р с h265, для тех кто хочет по меньше размер фильма.
А по стандарту дисков, blu-ray — это кодеки h264, vc-1
UHD blu-ray — h265.
avatar
Только пока что качества лучше чем на дисках нету, значит только диски, а потоковое мыло смотреть не хочется.
По битрейту потоковые сервисы скорее всего никогда не преблизятся к дискам, так как все хотят по сильнее зашакалить и придумывают новые кодеки для этого.
avatar
Фактически первая реализация декодирования h265 в видеокартах Nvidia появилась 5 лет назад в 2015, но большее распространение получила вторая реализация, которая появилась в 2016 в видеокартах 1ххх серии.
В процессорах интела примерно те же даты, h265 появился в 6ххх процах интела.
Да и в телефонах реализация h265 появилась в тех же годах.
Так что не понятно где это «только внедрили», если уже давно есть. Если кто-то сам не купил новое железо, то это только его проблемы. Плюс аппаратная реализация не так важна, если процессор тянет. Например даже мой древний i5-2520m тянет 1080р h265, 1440p60 vp9, 4k h264, vp9.
И x264, x265 — это не кодеки, это кодеры для кодеков h264, h265.
avatar
Вот в стриминг слабо верится, пока что лучший для стримов игр — h264, с кодером x264 и сложными пресетами slow, slower, veryslow. Кодирование игр сильно отличается от видео контента, тот же HEVC для игр совсем не подходит и выдаёт хотя бы какое-то качество только при отключении фильтра SAO, но как раз этот фильтр даёт прирост качества на видео контенте.
Основная разница в том, что картинка в играх всегда чётче чем на видео и поэтому сжимается в разы слабее, ну или если брать одинаковый битрейт, то игры сжимаются с заметно большими потерями.
avatar
С лицензией на h265 всё намного сложнее чем с h264, но не в этом дело.
Дело в том что h265 не поддерживают браузеры, а точнее его поддерживает только EDGE и вроде ещё safari.
А проблему с аппаратной поддержкой вообще не понимаю, vp9 тянется на любом новом полноценном процессоре (имею ввиду процы начиная с i3). Например у меня проц i5-2520m в ноуте тянет 1440р60 или 4к, не тянет только 4к60 и выше, так что аппаратная поддержка не особо и нужна для vp9.
Аппаратная поддержка нужна для h265 и av1, по сути av1 немного сложнее чем h265.
Но даже так у меня на проце тянет av1 1080р60 с ютуба, так что не всё так плохо.
А аппаратная поддержка думаю уже будет в следующих поколениях видеокарт, ведь интел, амд и инвидия состоят в альянсе aom, а у интела даже есть свой кодер/декодер av1. Да и много компаний разных в этом альянсе.
С vp9 такого не было, его продвигал только гугл, поэтому его аппаратные декодеры и не делали.
avatar

Ответ 8769116272515950907@mailru на комментарий
та же ширина канала позволит гнать конечным юзерам 4к лучшего качества

Если конечно кто-то будет так делать.
Например ютуб сейчас делает дичь с 50-60 фпс видосами, он просто в av1 делает битрейт в 2 раза меньше чем у vp9 и выходит в av1 качество местами хуже. Вот недавно смотрел, в vp9 битрейт видоса был 3800, а в av1 2100, это 1080р60.
Так что пока на ютубе лучше качество с av1 только на видосах с 25-30 фпс, у таких видосов битрейт +- одинаковый в vp9 и av1.
avatar
Если говорить именно про декодирование то не сильно он и сложнее.
Получается примерно так, vp9 примерно в 1.2-1.4 раза сложнее чем h264, а av1 в 3-4 раза сложнее чем h264.
Но декодеры ещё допиливаются и ускоряются.
Например мой ноут с процом i5-2520m уже тянет 1080р av1 с ютуба вплоть до 50 fps.
Большую роль играет поддержка процом AVX2, а это все процы интела начиная с i3-4xxx.
А в мобилках всё работает только на ASIC, на ядрах проца не декодируют.
Поэтому сложность не играет роли.
Например тот же h265 в 2 раза сложнее декодировать чем h264, а на телефоне это абсолютно одинаковое потребление энергии.
Специально сравнивал на своём redmi 8 pro, без разницы что там, h264, h265 или vp9 жрёт одинаково.
avatar
Как бы пока что av1 можно полностью отключить на самом ютубе, а все видосы в av1 ютуб пережмёт очень не скоро.
Но я вообще смотрю всё через плеер и в два клика могу выбрать нужный кодек.