Deepfake политиката идва. Готов ли е светът?

Facebook никога повече няма да бъде неподготвен - това беше обещанието, което Марк Зукърбърг даде по време на годишната конференция на разработчиците. Клетвата му се отнасяше за кампаниите по дезинформация и опити за манипулация на общественото мнение преди президентските избори в САЩ.

Днес обаче титанът на социалните мрежи и неговите конкуренти все още са неподготвени за новото голямо предизвикателство: фалшиви видеа, които изглеждат толкова достоверни, че объркват всички представи за истина и лъжа.

Платформи като Facebook, Twitter и YouTube са изправени пред все по-съвършена форма на дезинформация: т.нар. "Deepfakes" - подправени клипове, които могат да подведат дори най-внимателния поглед.

Експертите предупреждават, че колкото повече се развива технологията за създаване на deepfake-клипове, толкова по-скоро ще се използват в активната политическа кампания за провокиране на скандали или преобръщане на общественото мнение.

Нито една от основните социални медии не иска да обсъжда темата в детайли. Компаниите отказват да посочат с кои експерти работят, колко пари инвестират в откриването на deepfake-клипове и на колко души са възложили да проучат проблема.

Нито един от технологичните гиганти не предлага решение извън мъглявите общи обяснения.

Това не означава, че не работят по проблема. Facebook например обяви, че си сътрудничи с учени, за да разбере как техните изследвания могат да бъдат приложи към платформата. От Google също търсят съдействието на специалист по проблема. Компаниите обаче трудно компенсират изоставането си зад разработчици, които усъвършенстват технологията на deepfake и придават все по-убедителен вид на фалшивите видеа.

Терминът "deepfake" (комбинация от „дълбоко" и „фалшиво", б.р.) е производна на т.нар. deep learning ("дълбоко обучение", вид машинно обучение) - подправяне на видеозаписи с използването на глас и лица, които не съществуват в оригинала. Този тип клипове присъстват основно в тъмните кътчета на Интернет, където някои хора го използват, за да добавят бивши приятелки и знаменитости в порнографски клипове.

BuzzFeed обаче направиха експериментално видео, което показа опасния политически потенциал на deepfake - в техния клип Барак Обама ругае Доналд Тръмп и го нарича "пълен л*йнар". Всъщност, лицето на Обама е наложено върху кадри на режисьора Джордан Пийл.

Deepfake-видеата могат да се окажат по-голяма заплаха от фалшивите новини и създадените с Photoshop мемета, заляли президентските избори през 2016. Трудни са за засичане, а хората - поне засега - са склонни да вярват, че клиповете са истински.

Проблемът не е само в това, че отделни клипове ще разпространяват и ще сеят дезинформация. Въпросът е, че съществуването им е феномен, който може да убеди хората, че не бива да се доверяват на нищо, което четат, виждат или чуват освен ако то подкрепя собствените им убеждения.

Експертите казват, че разпознаването на фалшификатите с просто око ще бъде почти невъзможно след не повече от 12 месеца.

Джонатан Морган е изпълнителен директор на New Knowledge, които помагат на фирми да се борят с кампании за дезинформация и са извършвали анализи за CNN. Той очаква трол ферми, използващи изкуствен интелект, да създават и публикуват фалшиви видеа, адаптирани към специфичните предразсъдъци и убеждения на потребителите на социални медии. Точно това правиха подкрепяните от Русия тролове в Internet Research Agency при последните президентски избори, но без допълнителния ефект от фалшиво видео.

Имунитетът на социалните мрежи за справяне с дезинформация, подобна на тази от 2016 г., е още прекалено слаб. Много вероятно е те да нямат никаква реална налична инфраструктура за борба с deepfake-клиповете в обозримо бъдеще.

Много платформи вече налагат забрана за споделяне на изображения с голи тела, които могат да се прилагат към фалшиво порно, което те откриват. Нито една от тях обаче няма правила, регулиращи deepfake феномена като цяло. Не става дума само за глупави GIF анимации или сатирични видеа, а за по-притеснително съдържание от рода на фалшиво видео на политик или бизнесмен в компрометираща ситуация, или фалшиви репортажни кадри, които да показват как войници извършват престъпления на чужда територия. Потенциалните последици за обществото и демокрацията са много по-големи.

Компании като Facebook и Twitter твърдят, че са платформи, а не издатели, за да се освободят от отговорност за съдържание, публикувано от потребителите.

В случая обаче изобщо не стои въпросът дали да трябва да предприемат действия срещу deepfake видеата и да модерират това съдържание. Въпросът е само кога. А за момента не се прави почти нищо.

Инфраструктурата за борба с фалшивите видеа може да дойде от Пентагона.

DARPA (агенцията за развитие на нови отбранителни технологии) работи по 4-годишна стратегия за създаване на инструменти, които да идентифицират deepfake-клипове и други фалшифицирани изображения. Експерти в тази област казват, че алгоритмите за анализ на биометрични данни дават обещаващи резултати.

Един от подходите е анализ на пулса на хората в deepfake демонстрационни видеа. Хората обикновено имат сходно кръвно налягане в челото, бузите и врата. Сатия Венети, изследовател от университета "Карнеги Мелън", открива метод, който засича силно вариращи сигнали за пулс във фалшифицираните клипове. Това се случва, когато във видеото има насложени кадри.

В някои случаи тя открива пулс от 57-60 удара в минута в бузите, и 108 в челото.

Има и друг трик: търсете честите примигвания. Ако видеото е с продължителност от 30 секунди и човекът в кадър не премигва нито веднъж, това е подозрително, казва Сиуей Лиу - директор на Лабораторията по компютърна визия и машинно обучение в Университета в Олбъни.

Лиу твърди, че разработчиците на deepfake клипове използват неговите изследвания, за да подобрят успешно своите продукти, така че да заобикалят системата му за разпознаване.

Сега неговият екип търси други начини за идентифициране на фалшиви видеа, но той отказва да разкрива повече детайли, защото не иска да издава нищо, което може да помогне на хората да създават по-убедителни фалшификати.

Новините

Най-четените