"Специален доклад" и "Под наблюдение" - съвсем скоро те ще са реалност

Техническите компании са обсебени от идеята да могат да прогнозират човешкото поведение. Автокоректорът, например, знае каква дума искаме да напишем (поне през повечето време), Amazon знае коя е следващата книга, която ще си купим. Facebook знае кои са следващите приятели, които ще добавим...

Но от известно време правителствата също използват алгоритми и прогнозни анализи, за да предвиждат поведението на своите граждани в опит да избегнат евентуални кризи.

Някои от най-развитите държави по света вече разполагат със софтуер за нуждите на полицията, който използва статистически данни за престъпността, на база на които изготвя оценка на вероятността престъпленията да бъдат извършени в бъдеще. В Чикаго градските власти са разработили алгоритъм за прогнозиране на нарушения в хигиената на храните в различните ресторанти в града.

Във Великобритания властите използват анализ на големи обеми от данни, за да прогнозират случаи на насилие над деца. В Германия правителството планира да използва система за изкуствен интелект, която да открива "потенциални" кризи, още преди те да възникнат.

Преди няколко месеца консултантска фирма Deloitte публикува доклад, описващ различни тенденции при правителствата, като най-яркият тренд в доклада се очерта да бъде "предчувстващото правителство".

"Най-новите разработки в невро-лингвистичното програмиране, машинното обучение и разпознаването на реч и образи направиха възможно правителствата да предвиждат и прогнозират проблеми, вместо да реагират на тях", се казва в доклада.

По този начин те могат да избегнат цял набор от проблеми, от престъпност до проблема с бездомниците и загубата на жилища на граждани, та до обикновени злополуки. С нарастването на използването на тази технология правителствата ще се превърнат в технократична система за управление на риска и процесите.

Този нов подход към политиката не само ще създаде нова основа за упражняване на властта (а именно базите данни), но и ще доведе до въвеждане на нови правила. Така обаче решенията вече няма да се взимат от политици или от експерти, а от разработчиците на подобен тип софтуер.

Когато софтуер, разработен от IBM - или SAP в случая на германската армия - идентифицира всякакъв вид криза, на която политиците трябва да реагират, това представлява вид лобиране, тъй като разработчиците получават огромна възможност за влияние върху политиката чрез уж базирана на доказателства система.

Тази приватизация и механизация на политиката представлява едва ли не крачка към утопията за либертарианската мисъл - държава, която се влияе от пазара, а не обратното.

Подобна система се основава на много особено разбиране за политиката, в която политическият въпрос е лишен от легитимност, преди дори да стане политизиран. Предсказващото правителство по същество означава предотвратяване на социални явления като престъпност, бездомност или безработица, сякаш те са последиците от забавената или неефективна държавна политика.

Тази деполитизираща технология използва математически подход, който да изсмуче всичката политика от политическия процес по управление. Предварителното предотвратяване на политическите проблеми обаче на практика означава и край на целия демократичен процес.

Ако политиката се влияе само от статистически данни и предвиждащи алгоритми, човешкият фактор минава на заден пплан, поне дотолкова, доколкото ще се приоритизира кои проблеми да бъдат решени първо. Всичко това обаче превръща държавата в един своеобразен термостат, който може да бъде програмиран, и по него да се коригира благосъстоянието на обществото.

В състояние ли сме обаче да оставим на машини да определят обществения дневен ред и реално да управляват публичния сектор. И нещо повече - реалистично ли е хората - с цялата ирационалност на поведението, на която е способен човешкият род - да се оставят да бъдат управлявани от машини.

Демокрацията винаги е непълна система, чийто основен принцип е прозрачността: въпросите ще бъдат публично договорени и решавани. Превентивното правителство и неговото фиксиране върху бъдещето всъщност представляват един вид консервативна мания да се запази статуквото от настоящето на всяка цена - всичко трябва да остане такова, каквото е. Политическите проблеми се третират като нарушения на нормалното функциониране на обществото. А те не винаги са.

В съвременна бюрократична държава, разбира се, има законови нарушения, които трябва да бъдат разрешени (нарушения на спокойствието и реда, проблемите с паркирането и т.н.). Когато полицията е изправена пред демонстрация, те трябва да разгледат хипотетичните елементи и да предскажат дали ще настъпи ескалация. Те не използват компютри, за да направят това - използват собствената си преценка и опит. Това е перфектна илюстрация на разликата между демокрация и превентивно правителство, което се намесва много по-рано и затваря някои пътища, преди гражданите дори да имат шанс да ги изследват.

С други думи - подобни инструменти за предвиждане на проблемите или по-скоро прекаляването с тях лесно могат да се поддадат на авторитаризъм и заглушаване на всички недоволни гласове.

Софтуерна компания разработва компютърна програма, която анализира променливи като броя на участниците, нивата на шума и степента на агресия и геолокацията на туитове, за да изчисли вероятността дадена демонстрация да ескалира до насилие.

Ако полицията използва този софтуер и откаже на демонстрантите правото да протестират, дали прогнозите, генерирани от компютър, ще продължат да са валидни? Ще имат ли право протестиращите да обжалват решението на софтуера? Ако компютърът доведе до ненадежден резултат, властите ли ще бъдат задължени да действат по него? Това са само няколко от въпросите, които показват как компютърният код може да отмени законите.

В Ню Орлиънс, САЩ, компанията за анализ данни Palantir тестваше подобен предсказващ софтуер за полицията, без местните власти да имат представа, че той е в действие.

Моделът идентифицира връзки между хора, места, коли, оръжия и публикации в социалните медии и ги използва заедно с други данни, за да определи кой може да извърши престъпление или кой може да стане жертва на престъпление. Техните констатации няма да бъдат публично достояние, така че хората няма да знаят кой е определен като потенциален престъпник. Информацията е заключена.

По този начин реалността опасно много се доближава до популярния сериал от преди няколко години Person of Interest, при който изкуствен интелект по същия начин изчислява вероятността някой да стане жертва или да извърши престъпление. И там обаче шоурънърите показаха, че безотговорното използване на подобен тип изкуствен интелект може да доведе до сериозни проблеми.

Най-разочароващото нещо при този управляван от данни детерминиран държавен модел е не само, че той изключва всички политически дебати. Големият основен проблем е, че тази система не счита бъдещето за сфера от възможности, а като латентна заплаха, риск за управление.

Новините

Най-четените