Что такое дипфейк и почему ваше лицо фальшивее него?

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Статья | Оффтопик

Насколько можно доверять тому, что видят наши глаза? Это вопрос, который возникает при столкновении с таким феноменом как «дипфейк» сегодня требует более серьезного рассмотрения, чем когда-либо прежде. Что же такое дипфейки и зачем они нужны? 

Источник: www.rechtencircuit.nl

Введение в дипфейки

Дипфейк — это искусственное изображение или видео (серия изображений), созданные с помощью особого вида машинного обучения, называемого «глубоким» обучением ("deep learning" и "fake", отсюда и название). 

Простое пояснение термина:

Глубокое обучение похоже на любой другой вид машинного обучения, когда алгоритму задают пример чего-либо, и затем он воссоздает похожие примеры и учится создавать на их основе выходные данные. Аналогично учатся и люди. Ребенок может класть в рот все подряд и после понимать, что из этого съедобно, а что нет.

По аналогии с машинным обучением и дипфейками предметы, лежащие в доме, будут аналогичны реальным изображениям в Интернете, а также способность ребенка распознавать объект как съедобный или несъедобный, не пытаясь положить его в рот через пару месяцев, аналогична способности алгоритма создавать поддельные изображения, которые напоминают настоящие, после обучения на существующих данных.

Техническое пояснение термина:

Глубокое обучение — это особый вид машинного обучения, в котором задействованы «скрытые слои». Как правило, глубокое обучение выполняется специальным классом алгоритмов, называемых нейронными сетями, которые предназначены для воспроизведения того, как человеческий мозг изучает информацию. Скрытый слой — это ряд узлов в сети, которые выполняют математические операции для преобразования входных сигналов в выходные сигналы (в случае дипфейков — для преобразования реальных изображений в действительно хорошие поддельные). Чем больше скрытых слоев нейронной сети, тем она «глубже». Нейронные сети, и особенно рекурсивные нейронные сети (RNN), известны тем, что они довольно хорошо справляются с задачами распознавания изображений, поэтому их применение для создания дипфейков не составляет труда.

Процесс создания сложных дипфейков фактически включает два алгоритма. Один алгоритм обучен создавать наилучшие фальшивые копии реальных изображений. Другая модель обучена определять, когда изображение является подделкой, а когда нет. На самом деле сейчас дипфейки выглядят настолько искусно, что люди часто не могут сказать, является ли увиденное подделкой.

Источник: www.globaltechoutlook.com

Ваше лицо фальшивее, чем дипфейк

Недавние исследования показывают, что большинство из нас считают, что поддельные лица кажутся более реалистичными, чем настоящие живые, и поэтому мы считаем дипфейки более достоверными.

«Наши результаты показывают, что склонность людей воспринимать искусственные лица как настоящие может затем сделать их более доверчивыми к информации, передаваемой такими искусственными агентами», — пояснил в пресс-релизе соавтор исследования Раффаэле Туччарелли. — «Поскольку мы живем во времена, когда больше, чем когда-либо прежде в истории человечества, нас просят судить о реальности, правдивости и достоверности нашего социального мира, и какая информация, которой мы решаем доверять, может иметь далеко идущие последствия».

Туччарелли и его коллеги-исследователи также обнаружили, что, когда люди узнают, что их обманул дипфейк, они с меньшей вероятностью будут доверять какой-либо информации с этого момента.

«Это может привести к тому, что в будущем люди перестанут получать сообщения, поскольку они не знают, кому и чему можно доверять», — предупредил соавтор исследования Манос Цакирис, профессор психологии Лондонского университета Ройал Холлоуэй. — «Информирование аудитории о таких технологиях и повышение их цифровой грамотности может заставить быть более внимательными, но в то же время сделать нас менее доверчивыми».

Хорошая новость заключается в том, что Цакирис и Туччарелли обнаружили, что, хотя настоящие лица в их исследовании считались менее реалистичными, они считались более привлекательными. Так что фальшь, по крайней мере, выглядит хорошо.

Источник: www.rwkgoodman.com

Чем дипфейк отличается от Photoshop или других аналогичных программ?

Сегодня поддельные изображения легко найти на просторах Интернета, но они часто безвредны. Вы, вероятно, знакомы с забавными эффектами «замены лица» в приложениях для работы с фотографиями, где вы можете поместить чужое лицо на свое и наоборот.

Помимо того, что эти приложения для изменения фотографий предназначены в основном для развлечения, они, как правило, безвредны, потому что легко определить, что изображения являются поддельными и на самом деле не отражают реальность. Именно это делает дипфейки опасными — применение глубокого обучения для создания ложных изображений создает мир, в котором люди часто не могут сказать, что изображения или видео вообще поддельные.

Источник: www.ferra.ru

А есть ли серьезная проблема из-за дипфеков?

В современном обществе подавляющее большинство людей получают информацию о мире и формулируют мнения на основе контента из Интернета. Таким образом, любой, кто имеет возможность создавать дипфейки, может распространять дезинформацию и влиять на массы, чтобы они вели себя таким образом, чтобы продвигать нужную повестку дня создавшего этот дипфейк. Дезинформация, основанная на дипфейках, может нанести ущерб на микро- и макроуровне.

В небольших масштабах дипфейкеры могут, например, создавать персонализированные видеоролики, в которых родственник просит крупную сумму денег, чтобы помочь ему выйти из чрезвычайной ситуации, и отправлять их ничего не подозревающим жертвам, тем самым обманывая невиновных на беспрецедентном уровне.

В больших масштабах поддельные видеоролики с вымышленными заявлениями важных мировых лидеров могут спровоцировать насилие и даже войну.

Источник: new-science.ru

Что можно с этим сделать

На данный момент дипфейки не представляют большой проблемы, но, вероятно, в ближайшие несколько лет их распространенность и качество возрастут, хотя они уже поражают своей реалистичностью. Это не означает, что вы не можете доверять никакому изображению или видео, но вы должны начать приучать себя к тому, чтобы быть более осведомленными о поддельных изображениях и видео, особенно когда в видео вас просят отправить деньги или личную информацию, или делать сомнительные вещи.

Интересно, что искусственный интеллект может стать ответом на обнаружение дипфейков. Модели можно научить распознавать поддельные изображения в размерах, которые человеческий глаз не может обнаружить. Внимательно следите за развитием феномена дипфейков в ближайшие пару лет и, как всегда, сохраняйте бдительность.

2 комментария

S3DN13
Главное не перепутайте дипфэйк с дикпиком.

Добавить комментарий

Сейчас на главной

Новости

Публикации

Как земные микробы перестраивают свою анатомию, чтобы выжить при 1000 атмосферах, и почему они идеально подходят для инопланетных океанов

Если попытаться оценить распределение жизни на Земле через массу углерода, из которого состоят все живые организмы, мы получим картину, сильно отличающуюся от привычной нам биологии поверхности. На...

А ваша собака «подпевает» музыке? Как древний инстинкт псовых доказал, что мы научились петь раньше, чем говорить

Способность петь в группе кажется одной из самых естественных форм человеческого поведения. В любой культуре люди собираются вместе, чтобы сплотить свои голоса в хоре, ритуальных песнопениях или во...

История манипулятора: от контактного датчика угла до цифровой системы анализа изображения

Почти все пользователи ПК и ноутбуков в повседневной работе используют манипулятор — мышь. Это могут быть обычные офисные модели с базовым оптическим сенсором, высокоточные игровые...

Вами играют, а вы не знаете: как Теория игр спасет вас от манипуляций и лишних трат

Продолжаем знакомиться с ментальными фишками, которые сделают вас более эффективными и успешными в жизни. Сегодня мы поговорим о Теории игр. Как она работает и советы как ее эффективно использовать.

Сто лет делают доступные швейцарские часы: обзор модели Grovana Tradition

Бренд Grovana - это «тихая Швейцария». Компания завоевывает внимание сегодня не кричащей рекламой, а последовательным, можно сказать, методичным изготовлением практичных и недорогих...

Первый оцифрованный мозг обрел тело: как цифровая копия дрозофилы впервые начала ходить в симуляторе

На протяжении десятилетий развитие вычислительных систем шло по пути создания искусственного интеллекта. Этот подход подразумевает написание программного кода и использование алгоритмов, которые...