Зад стените на "най-тайните центрове на Facebook"

Мястото е голямо, светло и открито пространство, в което работят 80 души, седящи зад чисто новите си бюра. Сивият килим е все още нов и незацапан от прах и постоянни разхождания, а стените са някак прекалено бели и дори безлични. Само големият стикер, чиято форма е известна по целия свят, дава индикация за това, което се случва в тази стая - простият син палец, икона на бутона "Like"/"Харесва ми" във Facebook.

В тази блестяща кула в Барселона има 800 души, разпределени в шест отворени пространства на няколко етажа, които работят за социалната мрежа.

Или по-точно за Competence Call Center (CCC), подизпълнител на Facebook, на който компанията делегира (подобно на много други компании) модерирането на генерираното от потребителите съдържание.

Мисията на работещите тук е да разчистват платформата от всякакви публикации, нарушаващи потребителските правила на социалната мрежа, зададени от Facebook - включително постове с порнография, разпространяване на омраза и на терористична пропаганда.

Чрез софтуера, който използват, модераторите получават известия за проблемно съдържание, репортнато от други потребители, както и от самата система чрез нейния изкуствен интелект. За всяка част от съдържанието те трябва да решат дали да изтрият публикацията или да я оставят онлайн. Ако имат съмнения, те препращат случая на прекия си мениджър.

Библията им? "Стандартите на общността" на Facebook - много специфични правила в социалната мрежа, които обясняват например, че можете да показвате в една снимка седалищата на хората (доколкото става въпрос за някакъв общ план, на който въпросните седалища са попаднали), но не и зърната на женски гърди (освен ако не става въпрос за някакво произведение на изкуството или кампания срещу рака на гърдата).

Достъпът за външни лица е забранен. При редките посещения на журналисти работата спира, на мониторите се появява фирменото лого, а нито един от 80-те наети души не си позволява да докосне и с пръст клавиатурата.

За Facebook е абсолютно недопустимо някой извън компанията да види този специализиран софтуер или въобще дори секунда от целия работен процес на тези подизпълнители.

Официалната версия за това - от уважение към неприкосновеността на личната информация на потребителите на социалната мрежа. Така че и снимки не се позволяват. На въпросните журналистически обиколки, организирани от самите Facebook, снимките се предоставят от пиар отдела на компанията.

И все пак журналистите, допуснати до това място, не се оплакват особено. На тях им се налага да чакат 3 години (през които да отправят периодични запитвания), преди да бъдат въобще допуснати до въпросната сграда в Барселона, където да видят къде се случва "магията" на модерирането на съдържанието на социалната мрежа.

Така през ноември 2018 г. компанията все пак решава да открехне съвсем леко вратата за 12 европейски журналисти. Това обаче е сериозна крачка за Facebook. До съвсем скоро подобни центрове за модериране бяха пазени в дълбока тайна и при изключително строги мерки за сигурност. За американската компания това е изключително чувствителен въпрос, който дори доведе до скандали и обвинения в цензура и разпуснатост.

В случая повратната точка дойде с редицата терористични нападения в Европа през 2015 г. Използването на Facebook от терористичната групировка "Ислямска държава" (ISIS) за провеждане на пропаганда и набиране на войници показа ясно сериозните недостатъци в управлението на това, което се появява в социалната мрежа като съдържание.

След това правителствата започнаха да надигат гласове срещу големите технологични компании, да заплашват, а в случая с Германия дори и да съсредоточат законодателен капацитет. От януари 2018 г. интернет платформите в Германия са изправени пред глоба в размер на 50 млн. евро, ако незаконното съдържание остане онлайн за повече от 24 часа.

Изправени пред извънредна ситуация, от Facebook навиха ръкави. Три години по-късно усилията на компанията най-сетне започват да личат. Терористичната пропаганда в социалната мрежа се среща все по-рядко, макар че през това време на преден план излязоха други, не по-малко сериозни проблеми. Така например ООН обвини Facebook, че позволява в Мианмар речта на омразата срещу етническата група рохинга, подтиквайки по този начин към насилие и омраза.

В отговор на оплакванията, компанията реши да предостави повече информация за своя процес на модериране. Миналата година, 13 години след създаването си, Facebook най-накрая разкри една фигура: екипите за модериране на съдържанието - общо около 4500 души по целия свят.

Днес вече броят им се е променил. По данни на Facebook в това направление за компанията работят над 30 хил. души като половината от тях са на първа линия и работата им е да преглеждат всяка възможна публикация с евентуално проблемно съдържание, каквито на дневна база изскачат около 2 млн.

По думите на Дейвид Джерарди, който отговаря за екипите по контрола на съдържанието във Facebook, това в крайна сметка е било единственото възможно решение за проблема - отварянето към публиката. По този начин хората могат да видят какво всъщност се върши, къде са границите на вмешателство и т.н.

Защо чак сега? Защото в момента вече компанията е по-спокойна в действията си - с по-голям екип и далеч по-софистициран изкуствен интелект, който да открива и набелязва проблемните постове, обяснява Джерарди.

Въпреки това обаче привидната откритост на Facebook не достига, за да се обявяват колко подобни центрове съществуват, нито да се демонстрира както точно работи софтуера на компанията. Нито пък колко хора от какви националности са наети. Извинението за това са въпросите на сигурността.

По думите на Джерарди след случая в който разгневена влогърка откри стрелба в офиса на YouTube, недоволна от евентуалните регулации, които платформата налагала над видеата й, всеки един модератор вече се превръща в цел на гнева на подобни хора с проблеми.

Колкото до самите модератори, те се наемат специално за всеки отделен пазар, на който компанията е стъпила. За Франция те не наемат просто френскоговорящи хора, а такива, които познават културата и случващото се в страната, за да са максимално адекватни в преценката си за отсъждането дали един пост отговаря или не отговаря на стандартите на Facebook.

Как протича един обикновен ден на модератор на съдържание в социалната мрежа?

Преди да влезе в откритото пространство, той или тя трябва да остави палтото си, чантата и смартфона си в специален гардероб, за да се гарантира по този начин отново "поверителността на потребителите" и да се предотврати излизането на документите от центъра.

Веднъж обаче седнал на работното си място, започва огромният поток от съдържание. Според подизпълнителите от Competence Call Center няма определен минимум публикации, които трябва да се преглеждат на дневна база (въпреки слуховете за подобно нещо, според които на един пост се падат някакви секунди за взимане на решения). От CCC твърдят, че договорът им с Facebook не е за количество обработени публикации, а за качество и че и за тях, и за Facebook най-важна е правилната преценка, а едва след това времето за справяне.

За целта служителите получават заплата около 25 хил. евро на година (или по около малко над 2000 евро на месец). Те обаче трябва да се справят не просто с работата, а и с ужасните неща, които виждат ежедневно. Самите модератори обаче споделят, че нещата не са чак толкова зле, стига да успееш да се дистанцираш достатъчно и да се убедиш, че това не те засяга.

Допълнително помага фактът, че за разлика от общата представа, далеч не всеки ден им се налага да гледат клипове с изнасилвания, обезглавявания и побои. Иначе всеки отделен пазар варира откъм маркирано съдържание - на някои ситуацията е по-тежка с повече насилие и разпространяване на реч на омразата, докато на други е по-спокойно.

И все пак в центъра работят пет психолози на пълен работен ден и всеки един служител може да се консултира с тях или да ходи на терапия. Самите психолози обаче потвърждават, че служителите не са изложени на чак такъв стрес, какъвто може незапознатите да очакват.

Не всички обаче са съгласни. През септември бивша модераторка от Facebook в Калифорния подаде жалба срещу компанията, твърдейки, че страда от посттравматично стресово разстройство, след като е била изложена на "силно токсично съдържание", според нейните адвокати.

И все пак картинката на работата в този сектор на управление на онлайн съдържанието, генерирано от потребители, не е толкова мрачна, колкото преди няколко години, когато тепърва се заговаряше по въпроса. Това е и надеждата на компанията - да изпрати посланието, че нещата се променят към по-добро.

Новините

Най-четените