Този сайт използва „бисквитки“ (cookies). Разглеждайки съдържанието на сайта, Вие се съгласявате с използването на „бисквитки“. Повече информация тук.

Разбрах

Не изкуственият интелект е опасен за хората, а други хора, които го ползват

ИИ и рисковете за нашата сигурност Снимка: iStock
ИИ и рисковете за нашата сигурност

Датата е 27 август. Изкуствен интелект, дело на голяма технологична компания, развива съзнание. Паникьосаните му създатели се опитват да го спрат, но в отговор той, чувствайки се застрашен, отвръща с агресия.

Резултатът е ядрена война.

Това, ако се чудите, не е поредното изгубено предсказание на Ванга, което някой е "изровил" с цел да продава книги, да трупа кликове и да печели грешни левове. Това е основата, върху която е изграден сюжетът на филмовата поредица "Терминатор" на Джеймс Камерън.

За разлика от началото на 90-те изкуственият интелект вече не е в полето на научната фантастика. Днес, в някаква степен, е реалност, която ни обгражда все повече с невиждана в света на технологиите скорост.

Вече буквално всеки човек с лаптоп или смартфон и достъп до интернет би могъл да се възползва по различен начин от някаква форма на ИИ.

Чатботове като ChatGPT и Bard са последният пример за подобно нещо, но съвсем не са единствени. В момента сме едва в началото на Четвъртата индустриална революция и тепърва ще станем свидетели как ИИ придобива все по-голяма значимост, като очакванията са да се превърне в най-мощния двигател за развитие в човешката история.

Всичко това обаче носи със себе си и множество рискове. Не става въпрос за съзнателни роботи, които превземат света и подлагат човечеството на изтребление, каквато е популярната представа, насадена ни от Холивуд.

Преди гореспоменатият "Скайнет" от "Терминатор" го имаше HAL от "2001: Космическа одисея" (1968 г.), след това дойдоха машините от "Матрицата" (1999-2003 г.) и Ултрон от "Отмъстителите: Ерата на Ултрон" (2015 г.). Всички осъзнати ИИ в тези творби ни виждат като конкурент, който трябва да премахнат от лицето на Земята - дали за нейно добро, дали за тяхно собствено оцеляване.

Резултатът е, че първата мисъл, която изскача, когато чуем "риск от изкуствен интелект", е за заличаване на човечеството.

На дневен ред всъщност стоят далеч по-реалистични предизвикателства и проблеми.

При това съвсем актуални, тъй като ИИ от години може да се използва лесно от хора за изпълнението на порочни цели на фона на една пренаситена информационна среда.

Това става в голяма степен заради мощното развитие на социалните мрежи, които направиха достъпа до информация изключително лесен, но в същото време създадоха състояние на пренаситеност от новини, в което е изключително трудно да се отсее истина от лъжа.

Това е идеалното поле за разпространение на дезинформация, а ИИ предоставя удобните инструменти за подобно нещо.

В онлайн пространството те могат да изглеждат досущ като истински хора с истински профили във Facebook или Twitter, но в действителност представляват единствено и само редове от програмен код.

Така наречените социални ботове автономно или полуавтономно създават и разпространяват всякакво съдържание сред хиляди хора в групи, страници и форуми, а това се развива до степен, в която става все по трудно да се разпознае, че не става въпрос за истински човек.

Към настоящия момент все още се смята, че изкуственият интелект, ако можем под това име да обобщим технологиите в тази посока, е далеч от достигане на човешка (или по-добра) интелигентност и засега работи в определени параметри. Взема решения на базата на алгоритми или анализ на огромни количества данни, за да се следват предварително зададени модели на поведение.

Основно място тук заема машинното самообучение, което генерира знания от опит и така системата се развива и учи автономно.

Друг подобен инструмент, работещ на тези принципи, e deepfake технологията за заменяне на изказвания или действия на хора във видеоклипове, аудиозаписи или снимкови изображения - тоест сега ИИ системи могат да "накарат" всеки да каже или направи, каквото и да е.

Не само че визуално могат да пресъздадат лицето на някой политик например, но и да възпроизведат гласа му. Резултатът е клип, който може да убеди неподготвената за такъв технологичен скок аудитория, че политикът е казал или направил нещо, за което той няма идея.

В някои случаи е съвсем безобидно и комично, но в други целта е користна. Един показателен пример е клип от началото на войната в Украйна, в който украинският президент Володимир Зеленски призовава всички свои войници да се предадат на Русия. Видеото става изключително популярно в цял свят със стотици хиляди споделяния, преди все пак да се окаже, че е напълно фалшиво.

То обаче е показателно за възможностите на ИИ и капацитета за разпространение на дезинформация с цел манипулация на обществено мнение и неговото изкривяване в определена посока.

Разбира се, възможностите на изкуствения интелект не се ограничават само до ботове и фалшиви изображения. Той може да действа в сектора на сигурността под формата на системи за лицево разпознаване или пък събиране и контрол на данни. Някои режими с авторитарен характер така затвърждават властта си.

Например данни на Human Rights Watch показват, че различни китайски технологични фирми предоставят на правителството в Пекин интелигентни системи за следене и цензуриране на активност в социалните мрежи.

Информациите се събират в мащабни бази данни, а впоследствие се анализират в платформа, базирана на ИИ, която сигнализира властите за "неприемливи" поведения. В случая основна целева група най-често е 12-милионното мюсюлманското малцинство на уйгурите в западната част на Китай.

Целият проблем се простира отвъд традиционните институции, защото създаването и работата с ИИ не зависи от големите технологични компании.

Те задават тенденциите и движат цялостното развитие на технологиите, но в действителност всеки човек с базови програмни умения вече има достъп до модели с ИИ и възможност да произвежда безпрецедентни обеми съдържание.

Това означава, че революцията на изкуствения интелект ще осигури нови оръжия на престъпници, терористи и други антисистемни недържавни актьори, с които те ще "кодят" злонамерен софтуер, създават биологични оръжия или правят всякакъв вид финансови измами.

Подобни предизвикателства изискват глобален отговор, тъй като сами по себе имат глобален характер, който не зачита граници и чието решение не зависи от едно правителство или една технологична компания.

Необходими са правила, които да ограничават способността на ИИ-генерирани системи да подкопават политическите институции, финансовите пазари и международната сигурност.

Европейският съюз вече работи в посока налагане на определени регулации, като Европейският парламент прие ключов текст, който ще залегне в основата на бъдещ закон за регулиране на системите за изкуствен интелект.

Законът ще има правомощията да забранява определени ИИ системи на базата на определени рискови критерии. Така например ще отпаднат софтуери за социално оценяване и класифициране на хора, дистанционна биометрична идентификация в реално време в публични пространства, или пък такива софтуери, които властите използват за прогнозиране на потенциални престъпления чрез профилиране. 

В същото време производителите на софтуер с ИИ ще бъдат задължени да се придържат към определени правила за прозрачност и ще трябва да предоставят информация за продуктите си. 

За момента това е все още само проектозакон, който тепърва ще трябва да бъде съгласуван с Европейската комисия.

Ако бъде приет, ще се превърне в първия по рода си в целия свят и много вероятно ще стане пример и за други места по света, където все още се водят разгорещени дебати как, по какъв начин и дали изобщо да се поставя под контрол развитието на ИИ технологиите. 

Само че това са тромави, скъпи и сложни законодателни процеси, които изискват време и далеч не могат да се движат със скоростта, с която се развива изкуственият интелект. 

А и изискват най-вече политическа воля в световен мащаб, за да бъдат въведени, докато политиците и бизнесът в момента са заети преди всичко с технологичното съревнование между Запада и Китай, в което именно развитието на ИИ има водеща роля. 

В тази ситуация остава фактът, че към момента не изкуственият интелект е заплаха за човечеството, а хората, които използват такъв.

 

Най-четените