Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Детали где?
Знаете чем детализация от резкости отличается?
Детализация — качество проработки текстур объекта
Резкость — качество проработки контуров объекта
avatar
Pixel bining используется для увеличения соотношения сигнал/шум (SNR).
ибо, при усреднении сигнала с соседних фотодиодов уменьшается фоновый шум.
https://www.photometrics.com/learn/camera-basics/binning
«Цветовое» разрешение такого 200 Мп датчика = 12 Мп датчику.
Никаких «честных» 200 Мп по «цвету и свету» там не может быть по определению, даже в яркий солнечный день. Нет, в Раве конечно будут честный 200 Мп, но толку от них, если они получены через объединение сигнала с соседних датчиков, и цвет во всей ячейке 2x2 (или 4x4) получен из усреднения значений соседних пикселов через интерполяцию.
https://youtu.be/M2l9W7P8-gk
avatar
понятно, что в общем технологии не стоят на месте.
но и тупой биннинг вовсе не панацея.
https://www.youtube.com/watch?v=M2l9W7P8-gk
>Повышают количество и скорость выводов сенсора, чтобы поднять фпс — чтобы можно было снять большее количество информации (сделать несколько экспозиций) в единицу времени
да видел, какой HDR выжимает айфон из своих снимков с двойной экспозицией.
такие рожи, «ака розовый блин», и нафиг не сдались.
расширенный ДД даже с сосвременными технологиями надо уметь готовить.
айфон иной раз выдает откровенное непотребство в погоне за ДД.
avatar
дело ведь не в том, заметят или не заметят разницу.
дело в том, HDMI 2.1 поддерживает 4K@240. НО только с VESA's Display Stream Compression (DSC)
откуда взяты эти цифры — не понятно.
полосы HDMI 2.1, равной 48 Gb/s, не хватит, чтобы пропустить качество YCbCr 4:4:4 даже в 8 битах!
https://www.techreviewer.com/tech-answers/hdmi-20-21-refresh-rate/
avatar
HDMI 2.1 в 4K честно (4:4:4, без DSC) поддерживает 240 герц?
ничего не путаете?
включаем калькулятор (ставим расчет максимальной частоты по полосе пропускания интерфейса)
т.е. 3840 x 2160 x 240 выбираем 4:4:4 и 8-bit
смотрим результат
HDMI 2.1: FRL6 (48G) получаем = 188,3 Hz
Dysplayport 2.0 потянет и 323 герца, а вот HDMI 2.1 — не тянет.
https://linustechtips.com/topic/729232-guide-to-display-cables-adapters-v2/?section=calc&H=3440&V=1440&F=120&calculations=show&formulas=show
avatar
ты сделаешь вывод, как стал быстро работать только трекинг на таймлинии монтажки.
это одна из тысяч возможных операций в этой монтажке.
а чо шумодав темпоральный не ускорили, например? там такие тормоза бывают, что трекинг тебе покажется «детским садом».
он еще и ускоряется аппаратно на Neural Engine:
Machine Learning: Final Cut Pro uses a machine learning model trained on a data set to follow objects in a specified region of video. On systems with an Apple Neural Engine, this portion of the algorithm is accelerated.
The machine learning model draws a bounding box around any object it identifies. This method can recognize people, animals, and many common objects.
https://support.apple.com/ru-ru/guide/final-cut-pro/vere9b794f29/mac
Так что да! Эппле умеет сранивать несравнимое: трекинг на Silicon с возможностью обучения ИИ и софтовый трекинг 5-летней давности на камне от Интела (без какого либо ускорения со стороны камня и видюхи)! Браво ЭПЛ!
avatar
Да у них в Final Cut более-менее нормальный трекинг объектов появился только после выпуска Apple Silicon.
И кстати, в Final Cut для процессоров Интел они так и не добавили трекинг.
Вернее он там косой-кривой и весь на сторонних платных плагинах типа Coremelt (в этих лпагинах годами ничего не менялось и годяться они лишь только для элементарного трекинга)
https://coremelt.com/products/trackx-powered-by-mocha
Поэтому не удивительно, почему именно трекинг объектов, так сильно продвинулся при переходе на Apple Silicon))) Они специально его зажимали на интеловских процессорах до самого перехода на Apple Silicon и никому не давали писать плагины для трекинга объектов под эпловскую программу.
Вся поддерка Final Cut была забросана последние лет 10 мольбами о добавлении «человеческого» трекинга объектов в Final Cut.
PS кстати, да. По-моему для аппаратного ускорения трекинга объектов как раз используется этот Neural Engine. Потому сравнение интела и не интела ВООБЩЕ некорректное!
Прирост в 6,5 раз))) Конечно, вы аппаратный модуль отдельный сделали)
avatar
>на 80% быстрее по сравнению с самым быстрым MacBook Pro на базе процессоров Intel
при чем, вроде бы уже первой поколение M1 выпустили и там сранивали с Интелом.
нет! все равно, даже выпуская M2, сравнивают со своими же бывшими ноутами на Intel
так ведь процентов-то больше получается) правда)))
а чо со своими же ноутбуками 20-летней давности не сравнивают? там же еще больше процентов получится)
avatar
Патамушта ни на Нвидиа, ни на АМД (любых) на PC нет аппаратного ускорения кодирования/декодирования цвета 4:2:2.
А все современные беззеркалки пишут 10-битный цвет только с такой субдискретизацией цвета (8-битный обычно пишут в 4:2:0, а 4:4:4 пишут только дорогие камеры и камкодеры).
Ускорение кодирования/декодирования 4:2:2 есть только на:
1. Apple Silicon
2. встройках Интела через Intel Quick Sync
3. новых Intel Arc.
Поэтому в случае, проигрывания такого видео на PC, на таймлайне монтажки ты получишь тормоза даже на самой современной RTX4090!
И будет вынужден под такие видео создавать прокси или оптимизировнные медиа.
пруф
https://www.pugetsystems.com/labs/articles/what-h-264-and-h-265-hardware-decoding-is-supported-in-davinci-resolve-studio-2122/
avatar
он же монохромный. рисует чисто зеленым.
откуда на картинке синий и оранжевый цвета?
avatar
например, нотариусы берут деньги за перевод документа, подписанного ЭЦП, в бумажную форму и его удостоверение.
avatar
датчик как получал одно и тоже количество света, так и продолжает получать.
сигнал с соседних пикселей усредняют — увеличивается соотношение сигнал/шум (SNR).
https://www.cambridgeincolour.com/ru/tutorials-ru/image-averaging-noise.htm
биннинг сигнала с фотодиодов сенсора — по сути и есть усреднение.
скоро они 500 Мп в том же форм-факторе сделают и скажут, что еще больше света на фотодиоды стало попадать)))
а то, что каждый отдельный фотоприемник стал в разы меньше в размерах, они конечно же вам не сообщат.
avatar
+500
и только про датчики изображений для ТЕЛЕФОНОВ!
все остальные датчики не учитываются.
а в общем, ситуация по датчикам видится так
https://image-sensors-world.blogspot.com/2022/02/counterpoint-forecasts-sony-market.html
рынок телефонов — это 70% всех сенсоров.
все остальное — копейки)
avatar
без точных данных разведки, вся эта загруженная телеметрия ничего не даст (с точки зрения эффективности).
ИИ будет предполагать где расположен враг в данный момент. а это уже гадание на кофейной гуще.
кроме того, вы объемы данных представляете и время, требуемое для подобных расчетов (даже, если вводные данные будут поступать в режиме реального времени)?
avatar
следы жира от пальцев на OLED с его бесконечной контстрастностью… ммммм!
avatar
Пылевые клещи не кусают и не пьют кровь. Опасность содержится в их выделениях, которые содержат аллергены. Они разлетаются при любом колебании воздуха, попадают на кожу и в дыхательные пути.
В результате появляется аллергическое чихание, кашель, першение в горле, зуд в носу и на коже, раздражение глаз.
Последнее — вовсе не обязательно.
Мы живем с этми клещами всю сознательную жизнь!
Очередной ненужный прибор в доме. Как и Световые будильники Philips))) Хрень бесполезнейшая.
avatar
Puget Systems уже замеряло по Давинчи и RTX 3060
https://www.pugetsystems.com/labs/articles/intel-arc-a750-a770-content-creation-review-2376/#DaVinci_Resolve_Studio_-_H264_Decoding_and_Encoding
Но для меня самое важное, это именно аппаратное декодирование 4:2:2 как это давно есть в QSV на встройках
https://www.pugetsystems.com/labs/articles/what-h-264-and-h-265-hardware-decoding-is-supported-in-davinci-resolve-studio-2122/
avatar
Система рекомендаций видосов и шортсов в ютубе просто никакущая по сравнению с тиктоком!
Уж про количество можно было и не вспоминать.
avatar
+500.
именно под видеомонтаж и работу с видеоматериалом (не отвечу про 3D) Intel Arc, в том числе и создавалась!!!
там есть некоторые плюхи, которые до сих пор игнорируют и Нвидиа и АМД в кодеках 264/265. т.е. аппаратное кодирование/декодирование 4:2:2 в кодеках h264/265, в котором пишут все современные беззеркальные фотоаппараты.
а они прогнали по играм и вынесли свой вердикт.
https://www.reddit.com/r/Amd/comments/zi3x2a/amd_10bit_422_hvec_support/
https://developer.nvidia.com/nvidia-video-codec-sdk
avatar
очевидно же, что речь идет про кинопроизводство и прокат.
так то высоскоростные камеры и 10000 (кадров в секунду (и даже больше) снимать умеют.
правда при таких скоростях затвора нужны киловатты света)
но там это делается ради замедления картинки в N-цать раз.
в кино HFR — для устранения артефактов при быстром движении камеры и чтобы меньше был motion blur