Новый алгоритм Deepfake превращает фотографии в поющие портреты
Имперский колледж Лондона совместно с Центром искусственного интеллекта Samsung в Великобритании применили технологию Deepfake для создания так называемых поющих или говорящих портретов, используя одну фотографию и один аудиофайл. Как и ранее, для создания подобных «творений» не обошлось без машинного обучения, благодаря которому можно получить довольно реалистичные результаты.
В качестве примера исследователи показали ролик с Альбертом Эйнштейном, где использовалась фотография знаменитого учёного и его голос с выступления.
Или, например, почему бы не заставить Григория Распутина спеть песню Бейонсе Halo?
А как насчёт более реалистичного варианта? На этом видео мимика и движения губ не просто совпадают с аудиодорожкой, а передаются с определёнными эмоциями. Всё, что для этого нужно – всего лишь одно изображение и аудиофайл, остальное сделают алгоритмы Deepfake.
Результаты всё ещё не идеальные, тем не менее это демонстрирует, насколько быстро данная технология развивается. Методы генерации Deepfake с каждым днём становятся всё проще. И хотя подобные исследования недоступны на коммерческой основе, разработчикам не потребовалось много времени, чтобы объединить свои алгоритмы в простое в использовании программное обеспечение. Та же участь, вероятно, ожидает и данный подход к использованию этой технологии.
Подобные разработки по понятным причинам заставляют людей беспокоиться о том, что они будут использованы для дезинформации и пропаганды – вопрос, который в настоящее время беспокоит американских законодателей. Данная технология также может нанести серьёзный вред репутации человека, особенно женщин, которые часто становятся жертвами фейковых порнороликов. Так что заставить Распутина петь Бейонсе – это самое безобидное из того, что может сделать Deepfake.