Facebook визнала, що її платформу використовують для здійснення «штучного впливу»

al dianews

У документі, випущеному Facebook, окремо виділено поняття «штучного впливу» (false amplifier), який здійснюється через створення фейкових акаунтів у соцмережі та цілеспрямоване поширення через них певного контенту: викривлених новин, мемів, спаму, тощо.

«Відбувається створення груп або сторінок з певним наміром поширювати сенсаційні чи упереджені новини, які часто містять спотворені факти, аби вони відповідали певному наративу. Іноді ці сторінки включають в себе якийсь відсторонений контент, аби відволікти увагу від їхньої реальної мети», - йдеться у звіті компанії. 

В такі способи зловмисники можуть зменшити видимість важливих новин чи статей, натомість піднімаючи в стрічці новин необхідний їм контент, пише NiemanLab. Також ці а́ктори штучного впливу можуть координувати свої дії в написанні коментарів чи в розподілі «лайків» до публікацій. При цьому в Facebook підкреслили, що мова йде не про активність ботів, а реальних людей.

«Ми помітили, що більшість штучного впливу здійснюється не за допомогою автоматизованих процесів, а скоординованими людьми, які керують підставними акаунтами. Ми спостерігали за активністю цих фейкових акаунтів: ці дії могли виконувати лише люди з певним рівнем володіння мовними навичками і базовими знаннями про політичну ситуацію в цільових країнах, більш високим рівень скоординованості та завбачливості.  Деякі з менш кваліфікованих а́кторів можуть навіть додавати окремі вказівки щодо контенту, який вони публікують , що створює деяке враження про автоматизацію процесу», - йдеться у звіті Facebook.

Автори дослідження стверджують, що зусилля щодо поширення фейкових новин під час президентської виборчої кампанії в США в 2016 році були «статистично дуже малі у порівнянні із загальною активністю в сфері політичних питань». Для цього фахівці Facebook проаналізували пости за період з вересня по грудень 2016 року, які мали відношення до виборів та громадської активності. Отримані дані вони порівняли з активністю профілів, які раніше були позначені як а́ктори штучного впливу. Охоплення контенту цих а́кторів було менше однієї десятої відсотка від загального контенту, присвяченого виборам та громадській активності на Facebook, йдеться у звіті.

Автори звіту також відзначають, що цей тип активності часто використовується для отримання економічної вигоди. Модель роботи схожа з тією, яку використовували підлітки з невеликого македонського містечка - вони адміністрували роботу десятків сайтів з поширення фейкових новин, монетизуючи трафік та просуваючи певні новини чи меседжі за гроші.

Facebook планує боротися із явищем «штучного впливу» придіялючи більше уваги поведінці акаунтів у мережі, натомість менше зважаючи на контент, який акаунти поширюють. Для цього компанія буде використовувати нові аналітичні методи, в тому числі машинне навчання. Так, наприклад, соцмережа почала відслідковувати патерни активності фейкових акаунтів. При цьому, аналізувати контент на цих сторінках не було необхідності, зазначає Facebook. 

Facebook вказує, що цей новий підхід допоміг їй деактивувати 30 000 фейкових акаунтів напередодні президентських виборів у Франції. Компанія планує надалі розвивати свої інструменти, аби зменшити ризики маніпуляцій в інформаційному просторі, йдеться у висновках дослідження. 

Reuters звертає увагу, що компанія кардинально змінила свою позицію: у листопаді минулого року CEO Facebook Марк Цукерберг назвав вплив фейкових новин у соцмережі на результати президентських виборів у США божевіллям. 

Нагадаємо, раніше Facebook запровадив нові попередження про фейкові новини - біля новин, які містять неперевірену або неправдиву інформацію, тепер з’являтиметься позначка «спірний контент» з посиланням на організації, які здійснювали верифікацію новини. 

comments powered by Disqus