Модераторка Facebook розповіла про психологічний тиск через перегляд відео з порнографією та насильством

BBC

Як розповіла дівчина BBC, модераторів попереджали про те, що під час роботи вони будуть бачити багато вражаючого контенту. Робота Сари полягала у перевірці скарг користувачів Facebook на неприйнятний вміст. В середньому на одне повідомлення у модераторів була хвилина. Іноді вони видаляли не лише пост, але й профіль, який з ним пов’язаний.

За восьмигодинний робочий день модератори в середньому переглядали приблизно 8 000 повідомлень. «Ви маєте бути готовими побачити щось шокуюче лише після одного кліка миші, без попередження», - розповіла Сара Кец. Частина контенту, який їй доводилося переглядати, була дитячою порнографією.

Модераторка також розповіла, що часто непристойний контент з’являвся повторно й іноді було складно знайти його першоджерело.

«У той час нам не було з ким поговорити про це, отримати психологічну допомогу. Можливо сьогодні це вже можливо, але я не впевнена. Якби мені запропонували психологічну допомогу, то я скоріше б за все нею скористалася. Звичайно, вони нас попереджали, але попередження і те, що ти реально бачиш, - зовсім різні речі», - розповіла вона. Сара також помітила, що з часом модератори втрачають чутливість до насильства. За її словами, правила модерації були більш жорсткі щодо видалення порнографії, ніж щодо зображення жорстокості.

Пані Кец також розповіла, що у той час, коли вона працювала модераторкою, проблемі фейкових новин соцмережа не надавала великого значення. «Я реально не можу пригадати щоб ми коли-небудь чули термін "фейкові новини". Ми бачили багато новин, які поширювали користувачі, але керівництво ніколи не просило нас переглядати статті новин, щоб переконатись у точності всіх фактів», - розповіла дівчина.

Після виходу інтерв’ю з Сарою, речник компанії Facebook оприлюднив офіційне повідомлення, у якому запевнив, що модератори роблять дуже важливу роботу, тому компанія старається надати їм відповідну підтримку. «Це одна з причин, чому ми влаштовуємо регулярні тренінги, консультації та психологічну підтримку всім нашим працівникам і всім, хто працює на нас через наших партнерів», - йдеться у повідомленні.

«Хоча ми використовуємо штучний інтелект там, де можемо, у нас також є понад сім тисяч людей, які модерують контент на Facebook, і їхнє самопочуття справді є нашим пріоритетом», - запевнив речник соцмережі.

Нагадаємо, в минулому році британське видання The Guardian опублікувало правила модерації контенту в Facebook. Джерело газети в компанії повідомило, що на прийняття рішень модераторам часто дається близько 10 секунд. «Facebook просто не може контролювати весь контент. Його занадто багато, і з'являється він швидко», - розповіло джерело газети на умовах анонімності.

Також в минулому році видання The Verge поспілкувалося з колишніми працівниками Facebook після того, як компанія визнала існування замовної політичної кампанії в період з червня 2015 року по травень 2017 року. Модератори розповіли, що їх не готували до боротьби з російською пропагандою.

А через системну помилку в червні 2017 року Facebook виклала в публічний доступ особисті дані близько тисячі модераторів, включаючи імена, міста проживання та вік. З тисячі співробітників, чиї дані опинились в мережі, близько 40 займалися модеруванням екстремістського контенту. Один з них навіть вирішив утекти з Ірландії до східної Європи, оскільки з ним намагалися сконтактувати користувачі, яких пов’язують з угрупованням ХАМАС.

comments powered by Disqus