Има ли двоен стандарт при прилагането на правилата за съдържание във Facebook? Статия на "Уолстрийт Джърнъл" намеква точно за това.
Според нея Facebook поддържа програма, която изключва популярни личности - сред които политици, знаменитости и други - от обичайния процес на модерация на постовете, които се прилагат при масовите потребители.
Програмата XCheck - или "cross check", е била създадена с цел да бъде осигурен допълнителен слой проверка в случаи на проблеми със съдържание, качено от известен човек. Когато потребители пратят сигнал за проблемна публикация на такава личност, сигналът се изпраща към група по-добре подготвени модератори, за да се провери дали правилата на Facebook наистина са нарушени.
Проблемът е, че програмата е обхващала страниците на около 5,8 милиона души през 2020 г., но в същото време само 10% от публикациите им, за които са били подадени сигнали през XCheck, всъщност са били проверени от модератори.
Това се твърди във вътрешнофирмен документ, до който изданието е имало достъп.
В статията на "Уолстрийт Джърнъл" се посочва, че сред тези, към които се е подхождало различно, са хора като бившия президент на САЩ Доналд Тръмп, неговия син Доналд Тръмп-младши, както и сенатор Елизабет Уорън.
Що се отнася до самите хора, които се "радват" на това специално отношение, много често те дори не знаят, че има по-различен подход при модериране на създаденото от тях съдържание.
Така според статията целта на програмата предполагаемо е да предотвратява "PR пожари" или лошо отразяване в медиите, каквито биха могли да се случат, ако бъдат изтрити снимки, публикации или друго съдържание от профилите на известни потребители, които всъщност е трябвало да не бъдат премахвани.
С други думи, чрез нея Facebook - поне на теория - може да си спести главоболия от твърде бързо или неуместно изтриване на публикация на някой влиятелен политик например.
В документа от Facebook, до който изданието е имало достъп, обаче се отбелязва, че чрез XCheck всъщност се позволява на популярните потребители да нарушават правилата по начини, които за останалите биха довели до санкции. Това включва пускането на публикации, съдържащи форма на тормоз или дори призиви към насилие.
От Facebook обясняват пред вестника, че критиките срещу XCheck имат основание, но компанията вече е установила проблемите и работи по това да реши проблемите.
Обяснението е, че системата има за цел "ефективно да налага политиките за съдържанието, които могат да изискват повече разбиране", посочва говорител. Анди Стоун, комуникационен мениджър във Facebook, коментира в Twitter, че XCheck не е тайна и за нея е споменавано още през 2018 г. в официалния блог на компанията.
Стоун посочва, че не става дума за две различни системи за модерация, а просто за "предпазна мярка срещу грешки".
Той отбелязва, че т.нар. cross check се прилага и за страниците на много медийни организации - като Channel 4, BBC и The Verge. Такива допълнителни проверки по думите му се правят за съдържание от известни личности, правителства и страници, при които модераторите във Facebook преди са взимали грешни решения.
"Знаем, че собственото ни налагане [на правилата] не е перфектно и има компромиси между скорост и точност", пише още Стоун, който допълва, че в компанията се работи по нужните промени.
Facebook още от създаването на едноименната социална мрежа има проблеми с това да намери правилния подход към модерацията на съдържанието. С около 2,8 милиарда регистрирани потребители е неизбежна появата на неподходящо съдържание, подвеждаща информация и други проблеми в тази насока.
Ето защо компанията през последните години нае немалък брой компании, които да модерират съдържанието, което се появява в платформата.