Спасибо искусственному интеллекту за поддельный прон

В сети появилось видео, на котором актриса Гал Гадот (звезда фильма «Чудо-Женщина») занимается сексом со своим «сводным братом». Однако на самом деле в записи – не тело Гадот, и даже не совсем её лицо. Это мастерский монтаж.

Видео было создано с помощью алгоритма машинного обучения, с использованием легко доступных материалов и открытого исходного код, который может использовать любой, у кого есть знания об алгоритмах глубокого обучения.

Пристальный наблюдатель не обманется. Иногда лицо отслеживается неправильно, присутствуют артефакты сжатия и постобработки, но на первый взгляд ролик кажется правдоподобным. Это особенно поразительно, учитывая, что это, как утверждается, работа одного человека – пользователя Reddit, скрывающегося под ником «deepfakes» — а не большой студии спецэффектов, которая может в цифровой форме воссоздать юную принцессу Лею в фильме «Изгой Один» с использованием CGI. Вместо этого, deepfakes использует инструменты машинного обучения с открытым исходным кодом, такие как TensorFlow, которые Google бесплатно предоставляет исследователям, аспирантам и всем, кто интересуется машинным обучением.

Хотя уже существует инструмент Adobe, который может заставить изображения говорить что-либо, и алгоритм Face2Face, который может вставить в записанное видео лицо в режиме реального времени и отследить мимику, этот новый тип поддельного порно показывает, что мы находимся на грани жизни в мире, где тривиально легко изготовить правдоподобные видеоролики о том, что люди никогда не делали и не говорили. Даже секс.

Ранее deepfakes публиковал порно видео со Скарлетт Йоханссон, Мейси Уильямс, Тейлор Свифт, Обри Плазы на Reddit. Я обратилась к представителям киноактрис за комментарием, но пока их не поступило.

Фейк-порно со знаменитостями, в котором лица актёров заменены на лица селебрити – старая тема. Но использование ИИ – настоящий прорыв в этой области.

«Это больше не ракетостроение»

По словам deepfakes, который отказался раскрыть мне своё реальное имя, программное обеспечение, которое он использовал, основано на нескольких библиотеках с открытым исходным кодом, таких как Keras с поддержкой TensorFlow. Чтобы скомпилировать лица знаменитостей deepfakes использовал поиск изображений Google, данные фотобанков и видео на YouTube. Глубокое обучение состоит из сетей взаимосвязанных узлов, которые автономно выполняют вычисления по входным данным. В этом случае, алгоритм обучался на порно видео и фотографиях Гадот. После изучения достаточного количества информации узлы настраиваются для выполнения конкретной задачи, например, убедительной манипуляции с видео «на лету».

Исследователь искусственного интеллекта Алекс Шампандард рассказал мне по электронной почте, что мощная графическая карта потребительского класса может сделать необходимые вычисления за несколько часов, а более слабые видеокарты справятся также хорошо, но за несколько дней.

«Это уже не ракетостроение» — отметил учёный.

Лёгкость, с которой кто-то может это сделать, пугает. Помимо технической базы и знаний, всё, что требуется – достаточное количество изображений вашего лица, а многие из нас уже загрузили их в сеть: например, люди во всем мире загрузили 24 миллиарда снимков в Google Фото в 2015-2016 годах. Нетрудно представить, что программист-любитель может успешно использовать свой собственный алгоритм для создания секс-ленты того, кого захочет преследовать.

Deepfakes рассказал мне, что он не профессиональный учёный, а просто программист, интересующийся машинным обучением.

«Я просто нашёл умный способ сделать подмену лица» — рассказывает он о своём алгоритме. «Благодаря сотням изображений лиц я могу легко сгенерировать миллионы искажённых изображений для обучения сети», — сказал он. «После этого, если я буду скармливать сети чужие лица, сеть будет думать, что это просто ещё один искажённый образ и попытается сделать его похожим на целевой образ».

В комментариях к Reddit, deepfakes упомянул, что использует алгоритм, подобный тому, что был разработан исследователями Nvidia для изменения погодных условий на видео. Исследователи Nvidia, разработавшие алгоритм, отказались комментировать этот факт.

Почти во всех опубликованных deepfakes работах результаты не идеальны. В видео с Гадот иногда появлялись артефакты вокруг её лица, кое-где выглядывает исходное изображение, а движение рта и глаз не совсем соответствуют словам, которые говорит актриса, — но если вы немного прищуритесь и будете не так сосредоточены, то увидите действительно Гадот; другие видеоролики, сделанные deepfakes, ещё более убедительны.

Порноактриса Грейс Эванджелин рассказала мне в личных сообщениях Twitter, что порнозвезды привыкли к тому, что их работа свободно распространяется по таким сервисам, как SendVid. Но в этом случае, по её словам, всё иначе.

«Одна важная вещь, которая всегда должна быть – согласие» — говорит Эванджелин — «согласие в личной жизни, а также согласие на фильм. Создание поддельных сексуальных сцен знаменитостей происходит без их согласия. Это неправильно».

Даже у людей, чья жизнь связана со сьёмками, нарушение личных границ вызывает тревогу. Я показала видео с Гадот Алии Джанин, бывшей порнозвезде, которая работала в секс-индустрии в течение 15 лет. «Это действительно беспокоит» — сказала она мне по телефону. «Это отчасти показывает, как некоторые люди видят женщин как объекты для манипуляций, вынужденных делать все, что угодно … Это просто показывает полное отсутствие уважения к порно исполнителям и актрисам-женщинам».

Я спросила deepfakes, рассматривал ли он этические последствия этой технологии.

«Каждая технология может использоваться во вред, и это невозможно остановить» — сказал он, сравнивая свой опыт с технологией, которая воссоздала выступление Пола Уокера в Furious 7. «Основное отличие заключается в том, насколько легко [это] делать это всеми. Я не думаю, что это плохо для обычных людей».

Этически эти последствия «огромны», говорит Шампандард. Вредоносное использование технологий часто невозможно избежать, но ему можно противостоять.

«У нас должны быть громкие и публичные дебаты», — сказал он. «Каждый человек должен знать, насколько легко подделать изображения и видео, до такой степени, что пройдёт несколько месяцев, и мы не сможем отличить подделки от реального видео. Конечно, это было возможно и раньше, но для этого требовалось много ресурсов и профессионализм в визуальных эффектах. Теперь это может сделать один программист с новейшим компьютерным оборудованием».

Шампандард говорит, что исследователям стоит приступить к разработке технологий для обнаружения поддельных видеороликов, а также интернет-политике, которая сможет улучшить регулирование того, что происходит, когда появляются подделки и преследования.

«Странным образом это хорошо» — говорит Шампанард. «Мы должны сосредоточиться на преобразовании общества, чтобы иметь возможность справиться с этим».

Источник материала
Настоящий материал самостоятельно опубликован в нашем сообществе пользователем Proper на основании действующей редакции Пользовательского Соглашения. Если вы считаете, что такая публикация нарушает ваши авторские и/или смежные права, вам необходимо сообщить об этом администрации сайта на EMAIL abuse@newru.org с указанием адреса (URL) страницы, содержащей спорный материал. Нарушение будет в кратчайшие сроки устранено, виновные наказаны.

комментариев 13

  1. Ванёк26:

    ИИ такой ИИ.

  2. Ванёк26:

    Больше ИИ богу ИИ!

  3. ZIL.ok.130:

    Преобразование общества?
    Чё — мысель. Все на баррикады!

  4. Henren:

    Плохо он делает эти видюхи, бо лентяй и школоло.

    • Gena:

      Вот были же лапочки!
      https://picturehistory.livejournal.com/2907808.html

      • Henren:

        Нынче не прокатило бы — сплошной харрасмент, мачизм и расизм. Времена, когда Америка была Америкой, Бейрут — восточным Лас-Вегасом, а Иран — светским государством. А потом люди зажрались.

          • ZIL.ok.130:

            Чё та навеяло — «винтажные стюардессы». Это такие, которые тележку с едой вместо ходунков используют? А на тележке — сразу стойка для капельницы?

      • Henren:

        Кстати, что мир катится в унылое дерьмо, доказывает вот эта фотография с того же сайта, да.

        http://thehz.ru/wp-content/uploads/2016/01/Firststclass09.jpg