Состоявшуюся недавно конференцию по новым технологиям Массачусетского технологического института посетил неожиданный гость – Президент Российской Федерации Владимир Путин
Если точнее, не сам Путин, а его цифровая копия, которая в реальном времени накладывалась на лицо ведущего мероприятия и транслировалась на телеэкраны, когда он вставал перед камерами. Копия была очевидным фейком. Черты лица президента были неестественно вытянуты, моргание больше похоже на передёргивание пикселей, а в местах наложения лица Путина на ведущего были отчётливо видны цветовые различия. Однако система работала, картинка адаптировалась к мимике ведущего в реальном времени, и если не всматриваться, неподготовленный зритель вполне мог бы поверить в реальность происходящего на экране.
Десять лет тому назад, впрочем, как и пять, представить себе такое было невозможно. В ходе своего сенсационного “интервью” Путин заявил, что “народ, который неспособен отличать фактические явления от фальшивых, не имеет права выбирать своих собственных лидеров”. Этот перформанс должен был проиллюстрировать тревогу научного сообщества по поводу потенциального использования технологии deep fake для политических манипуляций. Тема, особенно актуальная для американцев в преддверии грядущих президентских выборов, учитывая уверенность политических элит во вмешательстве России в выборы США 2016 года.
После мероприятия, во время интервью для канала CNBC, Хао Ли – профессор Университета Южной Калифорнии и один из ключевых инноваторов в сфере компьютерной графики и 3D-моделирования – заявил, что был вынужден серьёзно пересмотреть свои взгляды на перспективы технического развития. До последнего времени научное сообщество было уверено, что пройдут годы, прежде чем доступные разработки позволят создавать абсолютно реалистичные дип-фейки. Теперь Хао Ли заявляет, что через год мы увидим видеофейки, которые будут абсолютно неотличимы от реальности.
В основе дип-фейков лежит синтез изображений реальных людей, базирующийся на машинном обучении. В систему искусственного интеллекта заливается массив изображений человека, на базе которого создаётся цифровая маска. Затем маску можно наложить на любого исполнителя. Изображение будет подстраиваться под мимику и движения своего носителя, и в идеале, позволит создать неотличимую визуальную копию другого человека.
Сперва технология применялась среди программистов-любителей и использовалась для сугубо развлекательных целей. Сам термин deep fake (конкатенация deep learning и fake) зародился в 2017 году на платформе Reddit, излюбленном сайте программистов, активистов и контркультурщиков. Изначально технология использовалась для создания фейковых порнографических видео с известными актрисами. Лица голливудских артисток накладывались на существующие фильмы порнографического содержания, а пользователи Reddit увлечённо смотрели записи с Эммой Уотсон, Кэти Перри, Тейлор Свифт и Скарлетт Йоханссон.
Достаточно быстро технология вышла за пределы любительских сообществ. В апреле 2018 года американский комик и режиссёр Джордан Пил создал дип-фейк в формате социальной рекламы, в котором цифровой Барак Обама предупреждает зрителей об опасности дип-фейков. Следующее значительное появление дип-фейков в инфополе связано с создателем Facebook Марком Цукербергом, цифровая (и пугающе реалистичная) версия которого зачитала зловещую речь о своём колоссальном влиянии на жизни десяток миллионов людей, стремлении полностью контролировать все информационные потоки и секреты граждан. Выход фейка с Цукербергом стал испытанием для редакционных стандартов Facebook, которая всегда старалась снять с себя ответственность за регулирование контента. С одной стороны – дип-фейк бил по репутации компании. С другой – удалив его, платформа бы пошла против своих заявленных принципов, согласно которым цензура недопустима. В результате, алгоритмы команды Facebook ограничили видимость распространения видео, но не стали полностью удалять фейк.
На днях технология дип-фейков опять попала в центр внимания, когда на китайских платформах мобильных приложений дебютировала программа Zao. Программа для замены лиц позволяет пользователям в считаные секунды поместить своё лицо в заранее заготовленные отрывки из популярных фильмов и сериалов. Zao почти моментально стала абсолютным лидером по скачиванию на территории КНР. Внезапный бум Zao продемонстрировал стремительное развитие технологий создания дип-фейков, которые уже совсем скоро станут доступны практически каждому.
Говорить о широком применении дип-фейков в политике пока преждевременно, однако, скорость развития технологии, повышение качества фейков и падение цены производства, практически гарантируют, что дип-фейки станут мощным политтехнологическим инструментом.
Впервые политический потенциал дип-фейков проявился, когда в интернете начало распространяться перемонтированное видео с Нэнси Пелоси - спикером Палаты представителей США. Технически не являясь дип-фейком, видеозапись с одной из речей Пелоси была искусственно замедлена таким образом, что спикер представлялась отчётливо пьяной. Видео стремительно распространилось в интернете, попало на крупнейшие новостные каналы США и было ретранслировано в твиттере Дональда Трампа. Пользователи достаточно быстро нашли оригинал видео, а демократы опубликовали официальное опровержение. Однако в результате инцидента политическому имиджу Пелоси был нанесён урон, а многие приверженцы республиканцев получили ещё одно «доказательство» морального банкротства демократов.
На этом фоне тревожность американской общественности по отношению к высокотехнологичным фейкам усилилась. В начале сентября университет Нью-Йорка выпустил масштабный доклад о потенциальном использовании дезинформации в социальных сетях в рамках президентских выборов 2020 года. В докладе прямо говорится, что дип-фейки могут стать одним из основных инструментов манипуляции избирателями в рамках предстоящих выборов. Авторы доклада призывают крупнейшие онлайн-платформы к более активному мониторингу распространения дип-фейков и их своевременному удалению.
Американские политики разделяют встревоженное отношение ученых к фейковым видео. В Конгрессе обсуждаются законодательные инициативы, которые должны ограничить распространение дип-фейков. В начале 2019 республиканцы предложили законопроект, который бы сделал незаконным производство и распространение вредоносных дип-фейков. Демократы в ответ предложили обязать создателей дип-фейков обозначать контент специальными опознавательными знаками. На данный момент законопроекты пребывают в подвешенном состоянии, но, инициативы с противоположных сторон политического спектра явно сигнализируют о возможности создания закона, который будет поддержан обеими партиями.
Конечно, существует альтернативное мнение. Так, Рассел Брендом – редактор отдела политики ведущего технологического издания The Verge – заявляет, что паника вокруг дип-фейков сильно преувеличена, и пройдёт ещё немало времени, прежде чем эта технология сможет представлять реальную угрозу текущему политическому ландшафту. Стремительное развитие программного обеспечения ставит этот тезис под сомнение. Если до недавнего времени создание дип-фейка требовало огромной команды специалистов и значительных инвестиций, сегодня, по подсчётам британской The Guardian, создание одного видео будет стоить около 1000 фунтов в день (около $1200) и может занимать в пределах недели. Весомая сумма, но вполне приемлемая для корпораций и государственных организаций.
Проблема пролиферации дип-фейков уже попала в поле зрения американских законодателей и общественности, а значит, постепенно США сможет выработать эффективный ответ. К сожалению, пока проблема остаётся вне политической повестки большинства государств. Такое положение дел создаёт значительные риски, главный из которых – то, что государственные органы могут оказаться банально не готовы к моменту, когда дип-фейки начнут представлять реальную общественную угрозу. Превентивные меры пора вырабатывать уже сейчас, и они должны включать в себя развитие технологической экспертизы, законодательные инициативы, работу с социальными сетями, а также – информирование общественности о потенциальной угрозе.
Дип-фейки несут в себе ряд значимых угроз для политических систем. Они могут быть активно использованы для вбросов в период выборов с целью дискредитации кандидатов. С помощью фейковых видео можно будет сеять панику среди населения, особенно если их запускать во время чрезвычайных происшествий. Просто представьте «заявление» министра Российской Федерации по делам гражданской обороны, который говорит в социальных сетях о масштабном радиационном поражении Архангельской или Ульяновской области. Фейковое заявление может спровоцировать панику похлеще любой техногенной катастрофы, которая приведёт к реальным жертвам и колоссальному экономическому ущербу. Наконец, дип-фейки могут использоваться для провокации межэтнических, межконфессиональных или межгосударственных конфликтов, особенно если их направлять в точки застарелых и хронических разногласий. И конечно, не стоит забывать, что существование дип-фейков в целом размывает границы правды и лжи. Если раньше видеозаписи практически всегда выступали стальным доказательством, то теперь каждый недобросовестный политик сможет обвинить обличающую его видеозапись в фейковости. Такой метод будет особенно удобен для авторитарных политиков, которые обожают уличать оппозиционно настроенные СМИ в распространении фейков.
Как может ответить государственный аппарат? Прежде всего, стоит подтолкнуть цифровые платформы к более активной борьбе с фейковыми видео. Средства распознавания дип-фейков развиваться параллельно с технологиями для их создания. Несмотря на появление стартапов, которые призваны определять модифицированные видео – на данный момент это неравная борьба. По словам Генри Фарида – эксперта по цифровой криминалистике из Калифорнийского университета в Беркли – на каждого специалиста по распознаванию дип-фейков приходится примерно 100 экспертов по их созданию. Цифровые платформы должны активнее инвестировать в инструменты выявления фейковых видео, а в силах государственного аппарата их к этому подтолкнуть, законодательно обязуя платформы бороться с дип-фейками.
Параллельно с юридическим регулированием цифровых платформ, призванным заставить социальные сети активнее бороться с фейками и инвестировать в релевантный инструментарий, государство должно самостоятельно повышать свои цифровые компетенции. Правительству стоит стимулировать развитие технологий, призванных бороться с фейками. Этого можно достигнуть с помощью грантов и налоговых льгот для стартапов, которые специализируются на мониторинге СМИ и социальных сетей, и выявлении вредоносных фейков.
Наконец, власти должны проактивно работать с населением, информировать граждан о развитии потенциально опасных технологий, оперативно давать опровержение для распространяющихся зловредных дип-фейков, представляющих социальную угрозу. В интересах государства обучать граждан критическому мышлению при работе с сетевыми источниками, одному из ключевых навыков цифровой эпохи.
На данный момент стороннему наблюдателю может казаться, что дип-фейки не представляют реальной угрозы, а алармизм американских законодателей не обоснован. Технологический тренд говорит об обратном. Дип-фейки становятся дешевле, качественнее и эффективнее, и самое время работать над инструментами, которые позволят с ними эффективно бороться.