Порнография, насилие и екстремна жестокост - животът на модератор в интернет

Професията на хиляди души е да претърсват най-тъмните кътчета на интернет, за да предпазят потребителите от травмиращо съдържание, включващо голота, насилие и дори смърт. Какво обаче се случва с тези служители извън работното им време?

Хората обръщат внимание на модерацията на интернет съдържанието само когато нещо неподходящо види бял свят в мрежата.

Една неделя например Стивън Стивънсън слиза от колата си и застрелва 74-годишен мъж. Двамата никога не са се срещали, но Стивънсън снима всичко с телефона си и го публикува във Facebook. През април баща застрелва 11-годишната си дъщеря, предавайки на живо в интернет, след което се обесва. Шест дена по-късно 14-годишен тийнейджър се беси в банята като излъчва цялото видео под формата на стрийминг във Facebook Live.

Тези събития шокират и плашат всеки, който използва интернет непрекъснато. За над 150 000 човека обаче е работа да гледат подобни неща ежедневно.

Модерацията на съдържание е практика на премахването на обидни материали или такива, които нарушават условията за използване на интернет услугите на сайтове и социални мрежи като Google, Facebook и Twitter. Работата се изпълнява от хора и с помощта на известен брой алгоритми. Тя изисква човек да разгледа съдържанието преди то да бъде докладвано и изтрито.

Запознатите с тази професия, която прави онлайн живота колкото се може по-безопасен, са малко, но още по-малко се замислят за жертвите, които се изискват за практикуването й.

Терминът "модерация на съдържанието" е сравнително стерилен и не може да опише какво понякога представляват нарушенията на условията за ползване. Докато по-голямата част от съдържанието е отбелязано като безобидно - снимки на приятели в разголени костюми за Хелоуин или такива от парти, на което хората пият алкохол - други съдържат детска порнография, насилие и видеа с екстремна жестокост като обезглавяване например.

Ежедневно се споделят над 3,2 милиарда снимки. В YouTube всяка минута се качват над 300 часа видео съдържание. В Twitter се постват над 6000 туийта всяка секунда. Дори и само два процента от този поток от информация да не е подходящ за споделяне, това означава, че всеки ден 64 милиона поста нарушават условията за ползване в мрежата.

Един от Facebook модераторите казва, че няма нищо приятно в работата му - "Отиваш на работа в 9 сутринта, пускаш си компютъра, а след това виждаш как нечия глава бива отрязана". И това запълва всеки ден, всяка минута от професията му.

Хенри Сото се мести от Тексас във Вашингтон през 2005-а, за да може със съпругата му да започнат работа в Microsoft. Той не подозира, че резултатът от това ще е неспособност да общува със сина си. Причината не е, че синът му има проблем с преместването на ново място или някои от препятствията в отглеждането на дете.

Причината е, че когато погледне сина си, в главата на Сото изскачат ужасяващи образи, причинени от часовете гледане на съдържание, което включва детски убийства и насилие между деца.

Така през 2016-а Сото завежда дело срещу Microsoft за нанесени психични травми. Преди това Сото работи в центъра за обслужване на клиенти, но, според адвокатите му, е преместен в отдела по интернет сигурност без да е предупреден за потенциалната опасност от гледането на съмнително съдържание или от влиянието, което ще окаже в отношенията със семейството му. На него му е казано, че просто ще преглежда дали условията за ползване се спазват.

Към 2010-а Сото вече е диагностициран с психично разстройство, причинено от посттравматичен стрес. През 2014-а той вижда видео на младо момиче, което бива изнасилено и след това е убито. Това е последната капка, която прелива чашата, и Сото напуска.

В подобно състояние можеш да минеш покрай детска площадка или да видиш нож в кухнята - гледката е достатъчна, за да отключи вече запечатаните образи на ужас в главата ти.

Проблемите на Сото оказват влияние и върху живота на семейството му. Понякога той не може да бъде около малкия си син, а на момчето е забранено да има гости, защото това би могло да предизвика криза у баща му. Сото не може да бъде близо до компютър, получава нервни тикове, сънува кошмари и понякога дори има халюцинации.

От Microsoft яростно отхвърлят обвиненията и твърдят, че Сото е получил адекватна психологическа помощ в компанията. Говорител на корпорацията казва, че се грижат както за премахването на споделеното през техни платформи съдържание с детска порнография, така и за здравето на служителите, които вършат тази дейност.

За Microsoft работят редица професионалисти в областта на психичното здраве, имат здравни програми за уелнес, които гарантират, че тези, които обработват материалите имат подкрепа зад гърба си. Дори може да им бъде изготвен индивидуален уелнес план за възстановяване.

Въпреки това корпорацията е изнесла част от отдела за модерация на съдържанието във Филипините заради по-ниското заплащане на служителите там и без оглед за психологическата помощ, която е необходима, за да се върши тази работа.

Сара Робъртс е професор по информационни технологии и един от малкото специалисти, които детайлно наблюдават модерирането на търговското и рекламното съдържание. Тя провежда изследване върху модератори точно на Филипините и картината, която представя, е доста различна от твърденията на Microsoft.

Робъртс счита, че делото на Сото ще бъде повратна точка в отношението към модераторите. В проучванията си тя вижда същите симптоми, които има и Сото - определени образи отключват реакции у засегнатите и понякога дори ги парализират от ужас.

Един от тях споделя на Робъртс, че в никакъв случай не може повече да слуша хора, които викат от болка.

Той не може да понася силни звуци, за него проблем е звукът, а не картината. Да се раздели аудио от видео съдържанието при преглеждането на материали е честа практика, която има за цел да направи случващото се по-малко реалистично и е използвана от Microsoft.

Работата неминуемо оказва влияние на всекидневния живот. Ако човекът, който не може да понася писъци, отиде на кино и там героят крещи по време на сцена с насилие, това може да отключи неподозирани психологически и физиологични реакции. Освен това пред Робъртс много от тези служители признават за проблеми с алкохола или криза в близостта с партньора. Никой не може просто да си тръгне от смяната си и да забрави какво е видял.

Ефектът от тази професия се усеща, дори и да не я вършиш на пълен работен ден. Дженифър Кинг е продуктов мениджър в Yahoo от 2002-а до 2004-а. Част от нейната работа е да управлява екип от модератори на съдържанието и казва, че има висока цена, за да вършиш дейността си. Тя я определя като отвратителна, ужасна и безчовечна.

Кинг преглежда голяма част от материалите сама и това със сигурност й оказва влияние, дори и да не го прави по осем часа на ден.

След известно време тя започва да се съмнява в нейното психично равновесие, а образите я преследват и след като напуска Yahoo. Понякога дори се притеснява, че ужасните спомени никога няма да си отидат.

Дженифър е наета за разработката на приложение, което ще идентифицира детска порнография в интернет. Тя иска от мениджмънта допълнителни хора, но получава отрицателен отговор. Според нея Yahoo иска да се застрахова от това да не бъдат подведени под съдебна отговорност за порнографско съдържание, но нищо повече. По тази причина служителите и тяхното здраве не са приоритет за компанията.

От Yahoo не отричат напълно тези твърдения, но бързат да допълнят, че премахването на детска порнография от техните платформи не е по-важно от здравето на служителите им.

В проучванията си Робъртс среща някои обичайни практики що се отнася до модерация на съдържанието и как корпорациите се отнасят към работниците си, които се занимават с това. За тези фирми модерацията е от огромно значение за бизнеса, но остава на заден план заради други иновации. С други думи, тази професия е неразделна част от интернет платформите, но повечето инвестират времето и средствата си другаде, вместо да се фокусират върху изследвания как тази работа влияе на служителите.

Заради договорите за поверителност и липсата на механизми за външна проверка и оценка не е ясно как служителите си взаимодействат със системите за подпомагане. Докато Microsoft излага на показ спецификите на собствената си система, Facebook и YouTube отказват. Много служители от тези платформи не искат да дават интервюта.

Модераторите често са първите, които реагират и докладват престъпление, което се появява онлайн, независимо дали става въпрос за снимки, видео или предаване в реално време.

Докато преглеждат отбелязаното като неподходящо съдържание, те често напомнят на екипи на спешна помощ, които се озовават първи на местопрестъплението.

Ефектите от този тип работа не са проучени задълбочено, но са изследвани в подобен тип професии. Едно проучване на Националния отдел за борба с престъпността във Великобритания показва, че 76% от служителите им споделят, че чувстват емоционално изтощение, след като са били свидетели на насилие. При тях излагането на смущаващи гледки също води до посттравматичен стрес или най-малкото краен цинизъм.

Много от технологичните компании са в така наречената Технологична Коалиция, включително Google, YouTube, Apple, Facebook и др. За момента обаче няма независим орган, който да проверява какви са системите за подпомагане на модераторите, няма и правителствени наредби, които да налагат определени стандарти за подкрепа на служителите в тази област. Всичко, което е публично известно, идва единствено от компании, които доброволно споделят своите практики.

В допълнение няма и официални данни или федерално проследяване, което да проследи какво се случва с модераторите, след като напуснат тази работа, така че последващият ефект от тяхната професия не е ясен.

Националният център за изгубени или експлоатирани деца на САЩ е един от малкото, които имат подробен мониторинг над служителите си в тази насока, но те не могат да въведат стандарти в индустрията.

Според специалисти трябва да взимаме пример от полицейските управления и техния начин, по който обучават, тренират и се грижат за кадрите си, и да пренесем тези практики в работата по модерация на интернет съдържанието. И това трябва да се случи възможно най-скоро.

Facebook наскоро обяви, че ще наеме 3000 нови модератори, за да изчисти платформата си от съдържание на насилие и убийства.

В момента има обявена позиция за оператор на публично съдържание, но описанието й е неясно и не се споменава какъв тип съдържание ще бъде разглеждано. Единственото отбелязано задължение е "разглеждане на съдържанието и класификацията му", а търсените умения включват "способността да останеш мотивиран, докато извършваш повтарящи се действия" и да бъдеш "силно мотивиран и работещ упорито под напрежение, и индивидуално, и в екип". Позицията е обявена като временна.

#2 thefish33 11.09.2017 в 16:01:39

Шамито, само защото не е имало среда като интернет преди години, не значи, че всичко това което сега може да се "качи" в тоя интернет, не се е случвало. Ама кво да ти обяснявам..

Новините

Най-четените