В преддверии выборов в Европарламент Бюро по предотвращению и борьбе с коррупцией (KNAB) призвало избирателей следить, чтобы на их мнение не пытались повлиять с помощью искусственного интеллекта.
Проблема в том, что даже создатели ИИ признают: отличить то, что сгенерировала нейросеть, от реальности — огромная проблема.
Итак, о чем предупреждает KNAB? О том, что политические организации, а также не связанные с партиями лица в период предвыборной агитации могут использовать сгенерированные искусственным интеллектом материалы, чтобы в том числе осознанно дезинформировать потенциальных избирателей и влиять на их мнение.
Опасения эти обоснованы. Историй о том, как на людей пытались повлиять в политических целях с помощью создания фальшивой реальности, уже предостаточно. Скажем, год назад, на выборах в Чикаго, в соцсетях распространилась запись кандидата в мэры Пола Валласа, где он жаловался, что у полицейских теперь меньше власти, тогда как раньше они могли убивать людей десятками, и никто бы и «глазом не моргнул». Ничего подобного Валлас не говорил — по заказу конкурентов, его голос синтезировали с помощью технологии deepfake.
«В период агитации могут быть совершены разные манипуляции: например, может быть синтезирован голос кандидата в депутаты. Или его облик может использоваться в фото или видео, имитируя ненастоящие ситуации или разговоры», — информирует KNAB. И дает советы, как определить, что материал перед вами создан искусственным интеллектом: у человека на видео будут нехарактерные гримасы, несимметричные пропорции тела, а движения губ не будут соответствовать произносимому тексту. Также могут звучать нетипичные для латышского языка фразы, а говорящий может произносить текст в нехарактерной ему манере.
И картинки с роликами, которые он генерирует, — поди отличи их от настоящих. Там давно уже нет «нехарактерных гримас» и «несимметричных пропорций тела». Развитие ИИ дошло до уровня, когда вы не можете верить ни своим глазам, ни своим ушам. Если с вами говорят по телефону с номера вашей мамы и голосом вашей мамы, это совсем не обязательно ваша мама. Если вам показывают ролик, где хулиганит ваш ребенок, это отнюдь не доказывает, что такое было вообще.
Ужас не только в искусности исполнения, но и в его легкости. Ведь фальшивки (в основном, политические) неплохого качества изготавливались и раньше — но для этого требовались огромные ресурсы. Специалисты должны были придумать фейки, оформить их в сообщения для конкретных целевых групп, создать фальшивке фото или видео, выполняющие роль подтверждения.
А теперь такой контент с помощью ИИ может создать один человек. И ему вовсе не надо быть специалистом по компьютерным технологиям. С ИИ сегодня случилось то же, что некогда с персональным компьютером, когда сложнейшее вычислительное устройство, на котором могли работать лишь высоколобые технари со знанием высшей математики, довели до уровня домашнего прибора, команды которому может отдавать даже маленький ребенок. Только с ИИ еще проще: там даже клавиши для команд запоминать не надо. Вы описываете ему задачу самым обычным, обывательским, разговорным языком, — и он ее выполняет.
Вот и аналитик Института Брукингса в Вашингтоне Дарелл М. Вест толкует о том же: «Мы больше не говорим о фотошопе с небольшими изменениями во внешнем виде человека или о наложении чьей-то головы на тело другого человека, а скорее о переходе в эпоху, когда произойдет массовое цифровое создание и распространение. Благодаря шаблонам, которые просты и недороги в использовании, мы столкнемся с «Диким Западом» предвыборных претензий и с ограниченной способностью отличать фейки от реальных материалов и неопределенностью относительно того, как эти призывы повлияют на выборы».
Что же может сделать политик с помощью нейросети, чтобы добиться победы на выборах? Да все что угодно. Вот совсем простой и относительно невинный (и все же — нечестный) вариант: недавно в Индии руководитель правящей партии Бхаратия Джаната обратился с эмоциональной речью к избирателям на одном из диалектов хинди, которого он не знает. ИИ отлично перевел его речь его же голосом, заставив губы шевелиться самым естественным образом. Представьте, как растрогал простых наивных индийцев тот факт, что политик — только ради них! — специально выучил их язык. Рука сама тянется голосовать за такого!
Еще из фокусов ИИ: он может создать фальшивый электорат. В США профессоры Корнельского университета Сара Крепс и Даг Кринер направили десятки тысяч электронных писем более 7 тыс. представителей штатов. Содержание писем имитировало обращение неравнодушных избирателей, однако половина из них была сгенерирована ИИ.
Это был лишь эксперимент — но он показал, что с помощью ИИ можно создать придуманные запросы, способные запутать предвыборный штаб кандидата. Благодаря технологии машинного обучения сгенерированные тексты сложно отличить от написанных людьми.
В свою очередь британский журнал Economist также отмечает, что «гиперреалистичные дипфейки могут повлиять на избирателей еще до того, как фальшивые аудио, фотографии и видео будут разоблачены». Издание также напоминает о таком инструменте воздействия на избирателя как «микротаргетинг». «Благодаря искусственному интеллекту избиратели могут быть завалены высоко персонализированной пропагандой в большом масштабе. Сети пропагандистских ботов будет труднее обнаружить, чем существующие усилия по дезинформации. Доверие избирателей к своим согражданам, которое в Америке снижается на протяжении десятилетий, вполне может пострадать, поскольку люди начали во всем сомневаться».
А как не сомневаться, если любая видеозапись — в том числе, с выборов, — может исказить картинку с помощью технологии «дипфейк» так, что она приобретет диаметрально противоположный смысл. К примеру, берется видео с реального избирательного участка — и туда вводятся лица и действия, способные убедить зрителей в массовых фальсификациях на выборах. В руки голосующим можно вложить пачки бюллетеней, одни и те же лица могут быть показаны на разных участках, убеждая зрителей во вбросах и «каруселях».
Так что не только латвийский KNAB — специалисты по безопасности во всем мире бьют тревогу и предупреждают о грядущем всплеске дипфейков, нацеленных на изменение общественного мнения или подстрекательство к беспорядкам перед голосованием. Особенно — с учетом таких крупных избирательных кампаний 2024 года, как выборы президента в США и выборы евродепутатов в Европе.
Такие платформы, как YouTube, Facebook и Instagram уверяют, что разрабатывают механизмы, чтобы выявлять контент, созданный ИИ. Также клятвенно обещает отслеживать использование своих технологий, чтоб «попытаться обнаружить операции политического влияния» компания OpenAI — та самая, что владеет самым известным и самым популярным сегодня в мире чат-ботом с ИИ: ChatGPT.
Более того, крупные технологические компании (OpenAI, Alphabet, Meta) уже пообещали обозначать «водяным знаком» контент, созданный ИИ — чтобы общество всегда могло отличить настоящую картинку от сгенерированной.
А пока этого не произошло, поменьше полагайтесь на виртуальную реальность. Точней, не полагайтесь вообще. Возможно, главный урок, преподнесенный нам сегодня искусственным интеллектом, — что стопроцентно можно верить только стоящему перед вами живому человеку, а не цифровой его копии…