Опубликовано видеообращение президента США о провале лунной миссии в 1969 году. Оно показывает, как работают дипфейки
Посадка на Луну миссии «Аполлон 11» 20 июля 1969 года стала знаковым моментом в космической истории. Но что, если бы космонавты погибли во время полёта на Луну, а президенту США Ричарду Никсону (Richard Nixon) пришлось доносить до американцев эти трагические известия по телевидению?
В опубликованном на специальном сайте видео, которое выглядит пугающе убедительно, президент Никсон якобы рассказывает, что NASA потерпело неудачу и космонавты погибли на Луне. Deepfake (букв. — «Глубокая подделка») — это фальсифицированные видео, на которых люди при помощи ИИ делают то, чего никогда не совершали. Порой такие подделки сложно отличить от реальных видео.
«Судьба предопределила, что люди, отправившиеся на Луну, чтобы исследовать мир, останутся на Луне, чтобы упокоиться с миром), — произнёс господин Никсон в фальшивом видео о космонавтах Ниле Армстронге (Neil Armstrong), Баззе Олдрине (Buzz Aldrin) и Майкле Коллинзе (Michael Collins).
Эксперты в области ИИ из Массачусетского технологического института потратили полгода, чтобы создать очень убедительное 7-минутное фальшивое видео, в котором реальные кадры NASA перемежаются поддельной трагичной речью Никсона, посвящённой провалу миссии «Аполлон 11».
Чтобы сделать голос и движения лица Никсона убедительными, использовалась технология глубинного обучения искусственного интеллекта. Кстати, озвученная трагическая речь реальная — она была подготовлена на случай гибели космонавтов и хранится в Национальном архиве США.
Массачусетский технологический институт создал проект Event of Moon Disaster с целью показать людям, какое опасное влияние могут оказывать фальшивые видеоролики на ничего не подозревающую публику. «Создавая эту альтернативную историю, проект исследует влияние и распространённость дезинформации и фальшивых технологий в нашем современном обществе», — отмечается на сайте проекта.
В случае Event of Moon Disaster цель — не только помочь людям лучше понять явление Deepfake, но и объяснить, как делаются подделки, как они работают, как их определить; оценить их потенциальное применение и злоупотребление, а также выработать средства борьбы с подделками и дезинформацией. Этот проект поддержан грантом Mozilla Creative Media Awards.