Как deepfake се превръща в средство за тормоз над активистки и бивши приятелки

През ноември 2017 г. акаунт в сайта Reddit, наречен "deepfakes", публикува порнографски клипове, създадени чрез софтуер, който поставя лицата на холивудски актриси върху тези на участниците в клиповете за възрастни.

Близо две години по-късно думата "deepfake" вече е възприета като нарицателно за видео, манипулирано или фалшифицирано с помощта на софтуер с изкуствен интелект.

Тази техника за създаване на видеа може да предизвиква смях в YouTube, но същевременно започва да притеснява законотворци в някои страни по света, които се страхуват от разпространението на политическа дезинформация.

В същото време обаче нов доклад, който проследява обикалящите из интернет deepfake клипове, показва, че те все още са най-вече в онзи жанр, показващ мъже и жени в интимна обстановка.

Стартъпът Deeptrace представи работата си по инструменти за засичане на такива фалшифицирани видеа, като надеждата на хората зад него е да продадат софтуера си на новинарски организации и онлайн платформи. Работата на Deeptrace е довела до откриването на почти 15 000 видеа, които открито биват представяни като deepfake. Това е почти двойно повече отколкото седем месеца по-рано.

Около 96 процента от тези deepfake клипове, които обикалят из мрежата, всъщност са порнографски, казват от Deeptrace.

Малко вероятно е процентът да е преувеличен, а разкритията напомнят, че въпреки спекулациите за това как deepfake клипове ще бъдат използвани за дестабилизиране на парламентарни или президентски избори, технологията се използва най-вече по един много различен начин, включително и като средство за тормоз. Тревожно е това, че според Deeptrace инструментите, нужни, за да се създаде deepfake, придобиват все по-големи възможности и стават все по-широко достъпни.

Докладът на стартъпа описва една нишова, но развиваща се екосистема от уебсайтове и форуми, в която хора споделят, обсъждат и си помагат при създаването на deepfake клипове за възрастни. Някои стоят дори зад бизнеси, които рекламират продукти чрез deepfake видеа, създадени с взимането на порнографски клипове и дигиталното добавяне на лицето на някой човек, без той да е дал съгласие за това.

Във фалшифицираните клипове, открити от Deeptrace, навсякъде дигитално добавени са лицата на жени. Видеа с някои от най-популярните личности – от американски актриси до южнокорейски поп знаменитости – имат милиони гледания.

Неправителствени организации вече съобщават как жени журналисти и политически активистки биват нападени или очерняни с помощта на deepfake клипове. Хенри Аждър, изследовател в Deeptrace, работил по доклада на фирмата, казва, че има форуми за deepfake, в които потребителите обсъждат или поръчват направата на подобни фалшиви клипове с еротично съдържание, но с жени, които познават. Като например бивши приятелки, които тези потребители желаят да видят в еротичен клип.

Даниел Ситрън е професор по право в Бостънския университет. Тя описва еротичните deepfake клипове, създадени без съгласието на човек, като "инвазия над сексуалната поверителност". През юни тя говори пред комитета по разузнаване към американската Камара на представителите, за да обясни на конгресмените повече за това как се използват инструментите с изкуствен интелект за медийна манипулация.

Индустрията за възрастни и преди е помагала да се прокарат нови медийни технологии – от видеокасетите до изскачащите реклами и стриймването на видео в интернет. Ситрън казва, че преобладаващият брой еротични deepfake клипове припомня за друг вечен урок от историята на технологиите: "На всеки етап сме виждали, че хората използват това, което е готово и налично, за да тормозят жени. Deepfake [клиповете] са пример за това".

Ситрън помогна за по-скоростното разпространение на законодателство срещу порното за отмъщение.

Така днес в САЩ такива закони има в поне 46 часа и в окръг Колумбия. Калифорния е сред тези щати – в началото на октомври губернаторът Гавин Нюсъм подписа закон, който позволява човек, дигитално вкаран във видео със сексуално съдържание без негово разрешение, да търси правата си по съдебен път срещу човека, който е създал или показал клипа.

Професорът по право също така в момента разговаря с американски законотворци от Камарата на представителите и Сената относно нови федерални закони, които да направят наказеумо разпространението на зловредни фалшификати и имитации, включително и deepfake клипове.

Едно от deepfake видеата, които в последните дни се шерват и от български потребители. В него лицето на Джим Кери е поставено в сцена с Джак Никълсън от "Сиянието", но мнозина не предполагат, че става дума за фалшификат.

Наскоро двама сенатори – републиканецът Марко Рубио и демократът Марк Уорнър, и двамата членове на Комитета по разузнаване към Сената, са писали на Facebook и други 10 социални мрежи с искане за повече детайли около това как те планират да засичат и отговорят на злонамерени deepfake видеа. Двамата политици предупреждават, че фалшивите клипове могат да имат "корозивно отражение" върху демокрацията.

Айдър от Deeptrace се опитва да успокои страховете, че фалшив клип може сериозно да повлияе на президентските избори в САЩ през 2020 г.

Но в доклада на стартъпа се посочва, че колкото повече хора разбират за технологията, толкова повече нараства шансът тя да се използва за политическа манипулация.

През юни помощник на малайзиски политик е арестуван, след като се появява видео, в което той предполагаемо прави секс с друг мъж – министъра на икономиката на страната. Мярката е взета, тъй като в Малайзия сексът с представител на същия пол е забранен. Министър-председателят коментира, че видеото е deepfake, но независими експерти не успяха да определят дали клипът наистина е манипулиран.

Както посочва Айдър, deepfake технологията може да се използва и като "правдоподобно опровержение".

За да извърши своя анализ, компанията Deeptrace използва комбинация от ръчно търсене и автоматизирано търсене, както и анализ на данните, за да създаде база-данни за познатите deepfake клипове в основните еротични сайтове, популярни сайтове за видео споделяне като YouTube, както и във форуми и сайтове, посветени специално на технологията за манипулиране на видеа.

Методологията им обаче не е перфектна. В данните им не влизат онези deepfake клипове, които се разпространяват като истински видеа, нито е възможно да се провери всеки ъгъл на интернет. Въпреки това на доклада на Deeptrace може да се гледа като на приветстван опит да се съберат емпирични доказателства за deepfake клиповете, каквито до момента липсват.

А Джак Кларк от независимата лаборатория за изкуствен интелект OpenAI предвижда, че фалишивите видеоклипове няма да са последния пример за отвратителните последствия от широкото разпространение на изкуствен интелект.

"Ще има хора, които ще си играят с технологията и някои от начините, по които си играят с нея, ще бъдат вредни и обидни", обяснява той.

#1 explorer 11.10.2019 в 12:41:16

Съвременни карикатури, създадени с помощта на ИИ

Новините

Най-четените