Сейчас фото, а тем более видео воспринимаются как доказательство истинности произошедшего события. Но технологии манипуляции с изображениями и видео стремительно развиваются, меняя пользовательский контент и медиапространство в целом. С одной стороны, это открывает массу возможностей для искусства и индустрии развлечений. С другой — возникает опасность, что вскоре мы перестанем воспринимать фото- и видеоинформацию как априори отражающую реальность.
В середине февраля американская компания Amber презентовала новое программное обеспечение, которое гарантированно сможет противодействовать созданию deepfake (поддельного видео, которое имитирует реальное благодаря технологиям ИИ) на основе съемок с полицейских камер и камер наблюдения. Через интервалы, определенные пользователем, она создает «цифровые отпечатки» (хэши) данных. Затем эти хэши сохраняются в блокчейн-сеть. Если кто-то изменит файлы, программа сравнит их «отпечатки» с оригинальными и выдаст предупреждение. По словам генерального директора Amber Шамира Аллибхая (Shamir Allibhai), он ведет переговоры с производителями камер о том, чтобы те встраивали технологию в программное обеспечение своих устройств.
Обман во благо
Технология замены анимации лица начала применяться в Голливуде уже несколько десятилетий назад. Когда актер не мог участвовать в съемках, его образ накладывали на аниматора. Тогда это требовало много ручной работы. С развитием технологий большая часть процесса автоматизировалась.
Результат создания анимации становился все более правдоподобным. Благодаря этому, например, стало возможным воссоздать образ умершего Пола Уолкера в «Форсаж-7». В фильме он выглядит вполне реалистично.
Сейчас технологии сильно продвинулись. Они позволяют переносить анимацию лица заданного человека на другого автоматически, с помощью обученной нейронной сети без значительной ручной работы, которую выполняли в Голливуде при создании подобных эффектов в фильмах. Можно совместить части тела разных людей, добавить действие — например, человек хлопает в ладоши, достает оружие. Для этого чаще всего используется алгоритм GAN (генеративно-состязательная нейросеть). Он основан на работе двух нейросетей: одна обучается синтезировать изображения, а другая — отличать их от реальных. В процессе обучения эти сети как бы соревнуются друг с другом, тем самым становясь лучше.
Создающие новый мир
На днях начал работу новый сайт Thispersondoesnotexist.com, на котором представлены фотографии несуществующих людей. Все эти образы создает нейросеть StyleGAN, которая была разработана инженерами компании Nvidia. Каждый раз, когда пользователи обновляют страницу сайта, с нуля генерируется новое изображение лица несуществующего человека.
Это хороший пример того, как нейросети научились справляться с задачей придумывать контент, очень похожий на реальность, но ею не являющийся. Это можно использовать, например, для создания сложных текстур в компьютерных играх или реалистичных задних планов в кинофильмах. Сейчас на это уходят месяцы ручной работы, а нейросеть справляется за считаные минуты.
Другое возможное применение — создание приложений, где пользователь сможет обработать видео по своему усмотрению: создать свой образ с другой мимикой, прической, типом фигуры. Не исключено, что технологии будут взяты на вооружение брендами и торговыми сетями, чтобы увеличить продажи: покупателям больше не нужно будет представлять, как будет смотреться новый диван в гостиной, можно будет это увидеть своими глазами.
Однако последствия повсеместного использования подделок от нейросети могут быть и менее безобидными. В последнее время часто появляются фальшивые видео, в которых используются лица знаменитых людей в срежиссированных сценах. Обычно жертвами становятся голливудские звезды и политики. Популярные западные сайты и соцсети (Twitter, Reddit) начали активно бороться с публикацией фейковых видео, но подделок все равно становится все больше.
В январе CNN опубликовал запись выступления сенатора Конгресса США Марко Рубио, который высказал опасения о бесконтрольном распространении deepfake-роликов. По его мнению, это может заставить людей поверить в несуществующие вещи, а это уже социальная и политическая угрозы.
Вопросы подлинности
Становится ясно, что не за горами то время, когда верификация контента станет необходимостью. Распознать поддельное видео способен не каждый пользователь. Внимательный зритель может увидеть артефакты — текстуры, которые не относятся к реальным объектам, странную мимику, звук.
Но технологии стремительно развиваются, поэтому в недалеком будущем различить подделку на глаз или слух станет практически невозможно.
В некоторых странах, в частности в США, активно разрабатываются технологии, позволяющие выявлять deepfake. Так, в 2016 году подразделение Министерства обороны США DARPA запустило специальный проект MediFor, цель которого не только обнаружить поддельные видео, но и понять, как они сделаны. Проверка проводится более чем по 50 индикаторам манипуляции. Это, например, анализ углов падения теней от различных элементов изображения — в сгенерированных видео они не совпадают. Примерно такие же технологии (разница в отражении света в глазах объектов, несовпадения цветов) будут использоваться в приложении TruePic Insight, которое позволит проверять подлинность загруженного видео и фото. Продукт уже используется Госдепартаментом США, а в марте ожидается выход пользовательской версии.
Другой подход распознавания подделок построен на том, что каждая камера при съемке придает изображению свой уникальный отпечаток, связанный со свойствами ее матрицы. При редактировании файла, замене его частей эта малозаметная текстура тоже изменяется. Еще одна возможность — натравить на подделки искусственный интеллект: одна нейросеть генерирует массу фейков, а другая учится их распознавать.
Например, в американской исследовательской компании SRI International подделки от нейросети обнаруживают с помощью поиска несоответствий между видео и звуковой дорожкой. Например, наблюдают, совпадают ли движения губ человека тому, что он говорит. Также алгоритм выявляет нехарактерные фоновые звуки. Например, действие происходит на улице, а анализ показывает, что звук записан в помещении.
Новая реальность
На фоне стремительного распространения поддельного видео возникает еще один важный вопрос — правовое регулирование, связанное с использованием таких фальсификаций. Можно предположить, что вскоре весь контент придется маркировать на проверенный и сомнительный. Появятся сначала частные, а потом, возможно, и государственные сертифицирующие компании, которые будут официально заверять подлинность видео. Обеспечение цифровой защиты в ближайшее время станет трендом. В итоге должны быть приняты и соответствующие законы, регулирующие проблему на государственном уровне.
Вероятно, технология deepfake будет развиваться по пути, который прошла лазерная печать. Из-за ее высокого качества возникла необходимость дополнительно защищать документы от подделки (например, ставить водяные знаки). Так же и с deepfake: люди научатся широко их применять, но им придется научиться воспринимать реальность по новым правилам.
Сейчас фото, а тем более видео воспринимаются как доказательство истинности произошедшего события. Но технологии манипуляции с изображениями и видео стремительно развиваются, меняя пользовательский контент и медиапространство в целом. С одной стороны, это открывает массу возможностей для искусства и индустрии развлечений. С другой — возникает опасность, что вскоре мы перестанем воспринимать фото- и видеоинформацию как априори отражающую реальность.
В середине февраля американская компания Amber презентовала новое программное обеспечение, которое гарантированно сможет противодействовать созданию deepfake (поддельного видео, которое имитирует реальное благодаря технологиям ИИ) на основе съемок с полицейских камер и камер наблюдения. Через интервалы, определенные пользователем, она создает «цифровые отпечатки» (хэши) данных. Затем эти хэши сохраняются в блокчейн-сеть. Если кто-то изменит файлы, программа сравнит их «отпечатки» с оригинальными и выдаст предупреждение. По словам генерального директора Amber Шамира Аллибхая (Shamir Allibhai), он ведет переговоры с производителями камер о том, чтобы те встраивали технологию в программное обеспечение своих устройств.
Обман во благо
Технология замены анимации лица начала применяться в Голливуде уже несколько десятилетий назад. Когда актер не мог участвовать в съемках, его образ накладывали на аниматора. Тогда это требовало много ручной работы. С развитием технологий большая часть процесса автоматизировалась.
Результат создания анимации становился все более правдоподобным. Благодаря этому, например, стало возможным воссоздать образ умершего Пола Уолкера в «Форсаж-7». В фильме он выглядит вполне реалистично.
Сейчас технологии сильно продвинулись. Они позволяют переносить анимацию лица заданного человека на другого автоматически, с помощью обученной нейронной сети без значительной ручной работы, которую выполняли в Голливуде при создании подобных эффектов в фильмах. Можно совместить части тела разных людей, добавить действие — например, человек хлопает в ладоши, достает оружие. Для этого чаще всего используется алгоритм GAN (генеративно-состязательная нейросеть). Он основан на работе двух нейросетей: одна обучается синтезировать изображения, а другая — отличать их от реальных. В процессе обучения эти сети как бы соревнуются друг с другом, тем самым становясь лучше.
Создающие новый мир
На днях начал работу новый сайт Thispersondoesnotexist.com, на котором представлены фотографии несуществующих людей. Все эти образы создает нейросеть StyleGAN, которая была разработана инженерами компании Nvidia. Каждый раз, когда пользователи обновляют страницу сайта, с нуля генерируется новое изображение лица несуществующего человека.
Это хороший пример того, как нейросети научились справляться с задачей придумывать контент, очень похожий на реальность, но ею не являющийся. Это можно использовать, например, для создания сложных текстур в компьютерных играх или реалистичных задних планов в кинофильмах. Сейчас на это уходят месяцы ручной работы, а нейросеть справляется за считаные минуты.
Другое возможное применение — создание приложений, где пользователь сможет обработать видео по своему усмотрению: создать свой образ с другой мимикой, прической, типом фигуры. Не исключено, что технологии будут взяты на вооружение брендами и торговыми сетями, чтобы увеличить продажи: покупателям больше не нужно будет представлять, как будет смотреться новый диван в гостиной, можно будет это увидеть своими глазами.
Однако последствия повсеместного использования подделок от нейросети могут быть и менее безобидными. В последнее время часто появляются фальшивые видео, в которых используются лица знаменитых людей в срежиссированных сценах. Обычно жертвами становятся голливудские звезды и политики. Популярные западные сайты и соцсети (Twitter, Reddit) начали активно бороться с публикацией фейковых видео, но подделок все равно становится все больше.
В январе CNN опубликовал запись выступления сенатора Конгресса США Марко Рубио, который высказал опасения о бесконтрольном распространении deepfake-роликов. По его мнению, это может заставить людей поверить в несуществующие вещи, а это уже социальная и политическая угрозы.
Вопросы подлинности
Становится ясно, что не за горами то время, когда верификация контента станет необходимостью. Распознать поддельное видео способен не каждый пользователь. Внимательный зритель может увидеть артефакты — текстуры, которые не относятся к реальным объектам, странную мимику, звук.
Но технологии стремительно развиваются, поэтому в недалеком будущем различить подделку на глаз или слух станет практически невозможно.
В некоторых странах, в частности в США, активно разрабатываются технологии, позволяющие выявлять deepfake. Так, в 2016 году подразделение Министерства обороны США DARPA запустило специальный проект MediFor, цель которого не только обнаружить поддельные видео, но и понять, как они сделаны. Проверка проводится более чем по 50 индикаторам манипуляции. Это, например, анализ углов падения теней от различных элементов изображения — в сгенерированных видео они не совпадают. Примерно такие же технологии (разница в отражении света в глазах объектов, несовпадения цветов) будут использоваться в приложении TruePic Insight, которое позволит проверять подлинность загруженного видео и фото. Продукт уже используется Госдепартаментом США, а в марте ожидается выход пользовательской версии.
Другой подход распознавания подделок построен на том, что каждая камера при съемке придает изображению свой уникальный отпечаток, связанный со свойствами ее матрицы. При редактировании файла, замене его частей эта малозаметная текстура тоже изменяется. Еще одна возможность — натравить на подделки искусственный интеллект: одна нейросеть генерирует массу фейков, а другая учится их распознавать.
Например, в американской исследовательской компании SRI International подделки от нейросети обнаруживают с помощью поиска несоответствий между видео и звуковой дорожкой. Например, наблюдают, совпадают ли движения губ человека тому, что он говорит. Также алгоритм выявляет нехарактерные фоновые звуки. Например, действие происходит на улице, а анализ показывает, что звук записан в помещении.
Новая реальность
На фоне стремительного распространения поддельного видео возникает еще один важный вопрос — правовое регулирование, связанное с использованием таких фальсификаций. Можно предположить, что вскоре весь контент придется маркировать на проверенный и сомнительный. Появятся сначала частные, а потом, возможно, и государственные сертифицирующие компании, которые будут официально заверять подлинность видео. Обеспечение цифровой защиты в ближайшее время станет трендом. В итоге должны быть приняты и соответствующие законы, регулирующие проблему на государственном уровне.
Вероятно, технология deepfake будет развиваться по пути, который прошла лазерная печать. Из-за ее высокого качества возникла необходимость дополнительно защищать документы от подделки (например, ставить водяные знаки). Так же и с deepfake: люди научатся широко их применять, но им придется научиться воспринимать реальность по новым правилам.