Как отличить видео, созданное нейросетью, от реального

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Статья | ИИ, сервисы и приложения

В эпоху быстрого развития технологий видео, сгенерированные искусственным интеллектом, стали неотъемлемой частью интернета и в последнее время они стали почти неотличимы от настоящих. Такие ролики часто выглядят очень убедительно, но содержат скрытые дефекты, которые помогают их выявить. Искусственный интеллект обучается на огромных массивах данных, копируя статистические закономерности, однако он пока не идеально воспроизводит нюансы реальной жизни. Это приводит к ошибкам в движениях, освещении и деталях, которые заметны при внимательном рассмотрении.

Автор: freepik Источник: ru.freepik.com

Один из главных индикаторов — неестественные движения. Люди и животные часто перемещаются слишком легко, без учета массы тела или инерции. Предметы могут подпрыгивать нелогично, а капли воды летать по странным траекториям, игнорируя законы гравитации. В подобных роликах такие аномалии проявляются в дерганых жестах или чрезмерной плавности, которая не соответствует естественному ритму. Физика в таких видео нарушается, потому что ИИ фокусируется на визуальной последовательности кадров, но не всегда учитывает реальные взаимодействия объектов.

Другой заметный признак касается лица и глаз. Реальные люди моргают спонтанно каждые 2-10 секунд. В ИИ-видео моргание часто отсутствует. Глаза могут двигаться неестественно, взгляд выглядеть «стеклянным», а мимика оставаться слишком симметричной, без случайных асимметрий, характерных для живых лиц. Это происходит из-за того, что нейросети генерируют черты на основе средних статистических данных, упуская индивидуальные вариации. Лица в подделках часто слишком гладкие, без пор, морщин или текстуры. Волосы могут двигаться нереалистично, а макияж — выглядеть как на обложке журнала даже в хаотичной сцене. Это особенно заметно в динамичных роликах, где реальные люди должны потеть, краснеть или менять выражение лиц.

Автор: freepik Источник: ru.freepik.com

Руки и пальцы тоже выдают подделку. В сгенерированных роликах пальцы иногда переплетаются, срастаются, деформируются, исчезают или кажутся «резиновыми», без правильных суставов. Пропорции тела могут искажаться: руки выглядят слишком длинными или короткими. Жесты жесткие, без естественной гибкости, зачастую повторяющиеся и не соответствующие словам. Тело в целом двигается не так, как в жизни: движения бывают рваными, без плавных переходов. Если ролик показывает сложные действия, вроде танца, ошибки становятся заметнее. Хотя современные модели улучшили анатомию, такие дефекты все еще встречаются.

Фон и мелкие детали часто страдают от размытости. В ИИ-видео задний план бывает сглаженным, с пятнами или бликами, которые не соответствуют основной картинке. Объекты могут внезапно появляться или пропадать между кадрами, а текстуры материалов — казаться искаженными, как в старых видео с низким разрешением. Если в видео есть текст, он может искажаться или расплываться при смене кадров, может быть написан с ошибками. Это связано с тем, как ИИ обрабатывает сцены: он строит кадры поэтапно, но не всегда сохраняет последовательность.

Автор: freepik Источник: ru.freepik.com

Освещение и тени служат еще одним маркером. В реальных видео свет падает последовательно, создавая логичные блики и тени. В сгенерированных роликах тени могут направляться в разные стороны, имитируя «два солнца», или неправильно взаимодействовать с объектами. Например, снег в ИИ-видео может не оставлять следов на поверхностях или не обтекать фигуры людей, а просто накладываться как текстура без рельефа. Такие несоответствия возникают, потому что ИИ не полностью моделирует физические свойства света и материалов.

Аудио в таких видео тоже содержит подсказки. Голоса звучат без естественных пауз, заиканий или колебаний интонации. Предложения бывают рублеными, а фон — с неожиданными шумами, не подходящими к сцене. Синхронизация губ и звука часто нарушается. Движения рта не совпадают с произносимыми словами, создавая эффект «чужой» речи. Иногда голос кажется синтетическим, с металлическим оттенком.

Автор: stockking Источник: ru.freepik.com

Для более точной проверки существуют специальные детекторы. Инструменты вроде Deepware.ai или Undetectable.ai анализируют видео на наличие артефактов, таких как необычные распределения пикселей, несоответствия в кадрах и других паттернов, которые не видны глазу. Эти сервисы достигают точности до 93,7%.

По результатам опроса более 1000 человек, проведённого компанией HarrisX и опубликованного на сайте журнала Variety, пять из восьми участников не смогли правильно идентифицировать ИИ-видео, что подчеркивает сложность задачи.

В целом, отличить видео, созданное искусственным интеллектом, от реального становится сложнее с каждым годом. Технологии улучшаются, но ошибки в деталях всё же остаются. По мере эволюции технологий эти признаки могут изменяться, но пока они остаются надежными ориентирами и внимание к деталям снижает риск обмана. Комбинация критического визуального анализа изображения, звука и использования инструментов пока ещё позволяет отличить ИИ-контент от реального. В будущем, возможно, появятся стандарты маркировки подобного контента, но пока что внимательность — лучший инструмент.

Изображение в превью:
Автор: freepik
Источник: ru.freepik.com
Автор не входит в состав редакции iXBT.com (подробнее »)

3 комментария

Добавить комментарий

p
это всё касается первых генеративных моделей, современные модели генерируют видео почти неотличимое от настоящего.
b
Статья от ИИ о том, как отличить видео от ИИ от такого же, но не от ИИ :D
C
На экранчике телефона, где скорее всего будет просматриваться видео, все эти дипфейки практически невыявляемы. К тому до сих пор мало кто знает, что ни фото, ни видео уже давно не являются доказательством чего-либо. Качество генерёжки постоянно растёт, так что выявлять приходится уже по косвенным признакам, например, часто пересылаемый ролик с большой вероятностью является ИИшным. По-моему, пользы от генерации картинок и видео ноль, скорее даже вред, они очень часто используются для мошенничества и политических манипуляций. Одно из немногих практических применений — реклама, но и это по сути является генерированием визуального мусора :)

Добавить комментарий

Сейчас на главной

Новости

Публикации

Под Большим Соленым озером нашли огромный пресноводный резервуар: парадокс гидрогеологии Юты

Большое Соленое озеро, расположенное в штате Юта, это крупнейший бессточный соленый водоем Западного полушария, уровень воды и соленость которого полностью зависят от баланса осадков, испарения и...

Обзор китайской аккумуляторной дрели-шуруповерта под 18V батареи: дешево не значит хорошо

Люблю, когда инструмент стоит своих денег. Не стала исключением и эта ударная дрель, которую можно назвать универсальной: есть функция молотка, есть муфта с широким пределом регулировки момента,...

Земля оказалась гибридом: как наша планета зародилась в одном кольце, а достраивалась в другом

Стандартная модель формирования Солнечной системы предполагала, что планеты земной группы сформировались из широкого, относительно однородного диска пыли и газа, который простирался от Солнца до...

Антарктика годами наращивала лед, а затем резко его потеряла: скрытая причина таяния Южного полюса

Долгое время поведение антарктических льдов расходилось с прогнозами климатологов. В то время как Северный Ледовитый океан терял свой ледяной покров под воздействием растущих глобальных температур,...

Румынский Диснейленд на глубине 120 метров: чем интересна шахта Салина-Турда

Пока все страны мира дружно консервируют и закрывают шахты, отслужившие свое, в Румынии к вопросу подошли креативно. И правильно, зачем добру пропадать, если можно превратить соляную шахту в...

Обзор наушников Twistura Beta Flagship: агрессия, драйв и текстуры

В названии наушников Beta от компании Twistura фигурирует приставка Flagship, то есть флагманские. Да, производитель небольшой и это одно из самых дорогих его решений, однако не так давно мы...