Ера на несигурност: Kогато покрай фалшивото започнеш да се съмняваш и в истинското

Технологията "deepfake" може би вече е дестабилизирала политиката в една държава.

Когато в края на 2018 г. президентът на Габон – Али Бонго, се появява във видео за традиционната си новогодишна реч, той изглежда здрав. Нещо във външния му вид обаче не е наред. Дясната му ръка е странно обездвижена и той мрънка в някои части от речта си. Някои от лицевите му изражения също изглеждат странно.

Може да е било от някаква болест. Бонго, чието семейство управлява богатата на петрол африканска държава от 50 години, е преживял инсулт при пътуване до Саудитска Арабия три месеца по-рано, след което никой не го е виждал. В речта си казва на зрителите, че е преминал през "труден" период, но се е възстановил заради "Божията милост".

А може би е било нещо друго. Вестници в страната публикуват статии, в които се предполага, че появата на президента във видеото е била продукт на технологията "deepfake".

Тя използва изкуствен интелект за създаването на убедителни фалшиви видеоклипове, в които изглежда, че сякаш хора правят или казват определени неща, макар това никога да не се е случвало в действителност.

Спекулациите по въпроса бързо се разрастват и достигат пика си седмица по-късно – при опит за военен преврат в Габон. Хората зад него поемат контрол над националната телевизия и разполагат войски из столицата, но едва часове по-късно са надвити от лоялни на властта представители на военните.

Много вече се е изписало за възможността "deepfake" клипове един ден да бъдат използвани за размътване на политическата среда чрез дезинформация. Примерът с Габон показва, че не е нужно умело продуцирано видео, че да се създаде хаос. Самото съществуване на технологията създава несигурност в една вече опасна ситуация.

Случаят с Али Бонго е пример как самата идея за фалшиви видеа може да създаде политически хаос. Снимка: Getty

Лилиан Едуард, професор по право в Университета на Нюкасъл, посочва, че не става дума само за това, че можеш да накараш хората да приемат нещо фалшиво за истина – също така можеш да ги накараш да мислят, че истинското всъщност е фалшиво.

Година по-късно дебатите за това дали истинският Бонго се е появил в новогодишното видео остават. Изследователи от изданието Mother Jones и организацията "Интернет без граници" са обединили сили да анализират кадрите, но не откриват доказателства те да са манипулирани. Същевременно не могат да изключат напълно възможността това да се е случило. Така спекулациите около здравето на Бонго продължват.

Стига се дори до тревожната ситуация някои хора да мислят, че е възможно някой друг да се представя за президента им и да управлява държавата.

"Deepfake" технологията – като други нововъведения - дойде от порнографията. Към края на 2007 г. се появи първото подобно видео, в което лицата на актриси от сцена от филм за възрастни бяха заменени с такива на известни личности. При това с помощта на безплатен софтуер. Бързо в Мрежата се появиха нови софтуерни инструменти, онлайн платформи и дори пазари, където занимаващи се с deepfake да предлагат услугите си. Изследване на холандската компания Deeptrace показва, че към октомври 2019 г. технологията все още се използва най-вече за създаване на "deepfake порнография без съгласие".

Но с нарастването на броя на видеата от този тип, експертите предупреждават, че технологията вероятно ще намери приложение и в други сфери, както и че може да бъде използвана за манипулиране на избори, разпалване на обществено недоволство или изостряне на дипломатическо напрежение.

Така през месец май се появи видео с председателя на Камарата на представителите в американския Конгрес – Нанси Пелоси, която е сред най-големите критици на президента на САЩ Доналд Тръмп. Видеото бързо добива популярност – то е забавено така, че 79-годишната жена да изглежда пияна. През ноември 2018 г. бивш говорител на Тръмп публикува забързано видео, в което да изглежда сякаш репортер от CNN бута служител на Белия дом. И този клип бързо се разпространява из социалните мрежи.

И двете видеа са от евтини фалшификати – или "cheap fakes", и са създадени с най-простички инструменти за видео обработка. Въпреки че бързо става ясно, че са манипулирани, те намериха място в глобалния новинарски поток за няколко дни.

Колкото по-сложна става технологията, толкова по-трудно ще става да се разобличават "deepfake"видеата. Едно от големите предизвикателства в борбата с фалшивите видеа дори сега е трудността да се докаже със сигурност дали дадени кадри са подправени.

Изследователски групи от Калифорния до Бавария, много от които получават подкрепа от правителства или технологични компании, се опитват да отвърнат на "deepfake", като използват същата технология за машинно обучение, която стои зад направата им, за да обучат системи с изкуствен интелект как да засичат фалшификатите.

Но нито един от тези инструменти няма да може да засече всяко "deepfake" видео или със сигурност да определи някое като такова, признават изследователите. Надпреварата между създателите на фалшиви клипове и тези, които ги разкриват, вероятно ще продължи да бъде игра на котка и мишка.

Но засичането на фалшивите клипове е само половината от битката. Изследванията предполагат, че новинарското отразяване на фалшиви видеа, дори да е с цел те да бъдат опровергани, създава съмнение в зрителите. Мнозина решават, че все пак трябва да има нещо вярно в даденото съдържание.

"Deepfake" видеата създават и това, което американският юрист по право Даниел Ситрон описва като "дивидента на лъжеца" – трудността в това да се определи достоверността на едно видео позволява на заснетите лица да твърдят, че кадрите са фалшифицирани.

Пример e видеото, появило се по време на президентската кампания в САЩ през 2016 г., в което Доналд Тръмп се хвали, че може да "сграбчи" жени за слабините. Тогава той призна, че е направил тези коментари и се извини. Малко повече от година по-късно – след като "deepfake" технологията стана по-добре позната – New York Times съобщи, че Тръмп е сменил позицията си и сега твърди, че видеото не е автентично.

Популяризирането на deepfake технологията ще позволи на политици и публични личности - като Доналд Тръмп - да оспорват автентичността на истински записи, в които те казват нещо спорно. Снимка: Getty

През юни Ситрон се явява пред представители на разузнавателната комисия към американския Конгрес. Обяснява им, че колкото повече хора знаят за "deepfake", толкова повече те може да се усъмнят в истински записи.

Отвъд политиката, несигурността, породена от "deepfake" клиповете, вероятно ще доведе до доста неприятности и за адвокатите в САЩ и други страни, където видео се използва като доказателство. През 2017 г. главният прокурор в Международния наказателен съд в Хага беше хвален за ново юридическо постижение: първата заповед за арест, базирана на видеоклипове в социалните мрежи.

Разследващи откриват няколко видеа, на които се вижда мъж, идентифициран като командира от либийските специалните сили Махмуд Мустафа Бусайф Ал-Верфали. Там той носи камуфлажни дрехи и черна тениска с логото на елитен военен отряд от Либия и извършва отвратителни екзекуции в или в близост до столицата Бенгази.

Заповедта за арест свързва Ал-Верфали с 33 убийства и е приета като знак, че съдът в Хага вече е в крак с времето. Време, в което 500 часа видео биват качени в YouTube всяка една минута.

Две години по-късно с напредъка на "deepfake" технологията да се използват сайтове като Facebook, Twitter и YouTube за източник на доказателства и започване на дело вече е много по-рисково. Сега пред прокурорите и адвокатите се появява ново предизвикателство – как да докажат, че видеото, което имат намерение да покажат в съдебната зала, наистина е истинско.

До момента няма познат случай, в който "deepfake" видео да е било показвано като доказателство. Но може би е само въпрос на време преди например на съдии да се налага да решават дали да се доверят на запис, на който майка се налива с алкохол, докато се грижи за детето си. Специалистите са на мнение, че видеото трябва да се използва в съда само когато може да бъде потвърдено от други доказателства – като свидетелски показания или кадри, заснети от друг ъгъл.

Видеото с президента Али Бонго може да е първият пример за това как "deepfake" технологията – независимо дали наистина е била използвана в Габон или не – води до високи нива на несигурност в политиката. И вероятно то няма да е последното.

Изводът е, че трябва да обръщаме повече внимание на ставащото извън западния свят, защото не там нещата се случват за пръв път. Там те се случват, когато вече е твърде късно и са нерешими.

Новините

Най-четените