Facebook та Google роками фінансували поширення фейків – розслідування MIT Technology Review - Без Брехні
Фактчек

Facebook та Google роками фінансували поширення фейків – розслідування MIT Technology Review

Технологічні гіганти платять мільйони доларів операторам клікбейт-сторінок, фінансуючи тим самим розповсюдження плагіату та фейків у різних країнах. Про це йдеться у розслідуванні видання Массачусетського технологічного інституту MIT Technology Review.

Випадки у М’янмі

Велике розслідування розпочинається з кейсу М’янми: через місяць після військового перевороту (що стався у лютому 2021 року) та падіння демократичного уряду на платформі Facebook Live з’явилася пряма відео-трансляція вуличних протестів. У підсумку вона набрала понад 1,5 мільйона переглядів, а репостнули її майже 50 тисяч людей. Проте не минуло й дня, це відео з’явилося знову і знову «транслювалося онлайн». В результаті, користувачі сервісу вже не могли зрозуміти, що відбувається в реальності.

За даними сервісу аналізу активності акаунтів CrowdTangle, який був запущений Facebook у 2015 році, шість із 10 найбільш активних у соцмережі м’янманських інформаційних сайтів були офіційно зареєстрованими ЗМІ. Але незабаром Facebook запропонував нову нагоду: публікацію прямо в соцмережі журналістських матеріалів, які редакції могли використати для монетизації, — і ситуація змінилася.

Вже через рік лише два з 10 топових інформаційних сайтів на Facebook виявились засобами масової інформації. А вже до 2018 року ЗМІ у цьому списку не було зовсім. Натомість аудиторія читала фейкові новини і клікалаа на клікбейтні ресурси. У серпні 2017 року група бойовиків рохінджа (мусульманської етнічної меншини) атакувала та вбила співробітників урядових сил безпеки. Поліція та військові почали чинити тиск на рохінджі та поширювати антимусульманську пропаганду. Фейкові новини про озброєні агресивні рохінджі стали вірусними.

Джерела тих фейків досі не розкрито. Але в будь-якому випадку величезна кількість дезінформації стала каталізатором зростання етнічної та релігійної напруги у країні. Пропаганда, що поширювалася, змінила громадську думку і загострила конфлікт, який зрештою призвів до загибелі 10 тисяч рохінджу.

У 2018 році розслідування ООН встановило, що насильство щодо рохінджу є геноцидом і що Facebook зіграв у цій ситуації «визначальну роль». Через кілька місяців Facebook визнав, що зробив недостатньо для запобігання розпалюванню насильства.

Нещодавня скандальна публікація внутрішніх документів Facebook підтвердила: алгоритми соцмережі поширюють провокаційний контент, адміністрація не здатна приділяти достатньої уваги модерації контенту за межами США та ЄС. В результаті це сприяє поширенню дезінформації, мови ворожнечі, а також дестабілізації у країнах у різних куточках планети.

І, як кажуть у розслідуванні MIT Technology Review, заснованому на аналізі даних та документів, Facebook та Google платять мільйони доларів, фінансуючи розповсюджувачів фейків.

Монетизація без контролю

Facebook запустив програму Instant Articles, яка передбачає монетизацію журналістського контенту, у 2015 році спільно з декількома великими ЗМІ зі США та Європи. Програма презентувалася як спосіб скоротити час завантаження журналістських матеріалів і можливість зробити інтерфейс користувача більш доброзичливим.

Журналістські матеріали тепер відкривалися безпосередньо у додатку Facebook, без перенаправлень на інші інтернет-ресурси, таким чином соцмережа заволоділа рекламним простором.

Instant Articles швидко втратив популярність серед великих та багатих редакцій із передових країн. Їх виплати виявилися недостатньо високими проти інших форм монетизації контенту. Але для гравців з країн, яких Facebook почав приймати в програму з 2016 року, все було по-іншому. Вже 2018 року компанія повідомила про виплату їм 1,5 мільярда доларів, а до 2019 року ця цифра досягла кількох мільярдів.

Спочатку Facebook не достатньо контролював якість видавців контенту, що приєднувалися до програми. Правила платформи також не передбачали значних покарань користувачів за публікацію ідентичного контенту на інших сторінках Facebook. Це при тому, що розміщення однієї і тієї ж новинної замітки на декількох сторінках може в кілька разів збільшити кількість користувачів, що клікнули на неї, і це позначиться на доході від реклами. Клікбейт-ферми по всьому світу вхопилися за цю ваду і використовують її досі.

Ділки створюють сайти для публікації плагіату, потім реєструють їх у Instant Articles і Audience Network, а потім матеріали розповсюджуються на кількох десятках сторінок Facebook одночасно.

У тій же М’янмі, де розплодилися творці клікбейт-ферм, ділки отримали можливість заробляти тисячі доларів США на місяць з доходу від реклами, а це в рази більше за середню місячну виплату від Facebook. Автори MIT Technology Review заявляють, що проблема є глобальною. Тисячі маніпуляцій з публікаціями контенту в соцмережі проводяться в країнах, де виплати Facebook забезпечують більш вагоме та стабільне джерело доходу, ніж інші види доступного заробітку. Цим займаються як окремі особи так і  цілі команди з допомогою дешевих автоматизованих інструментів масового поширення статей.

Цікаво, що внутрішній документ компанії, оприлюднений MIT Technology Review у жовтні, демонструє, що Facebook знав проблему ще у 2019 році. Автор документу, колишній спеціаліст з аналізу даних Facebook Джефф Аллен, виявив, що тактика ділків дозволила активно використовувати клікбейт-ферми в Македонії та Косово. Якогось моменту до 60% доменів, зареєстрованих у Instant Articles, використовували тактику створення спаму, через клікбейт-ферми.

Незважаючи на тиск з боку як внутрішніх, так і зовнішніх дослідників, Facebook щосили намагався припинити зловживання. Водночас компанія розгортала дедалі більше програм монетизації. Крім рекламних пауз для відео, була реалізована монетизація IGTV для Instagram та реклама In-Stream для відео у прямому ефірі.

Також дослідники повідомляють про прорахунки компанії Google. Її сервіс контекстної реклами AdSense використовувався для ферм у Македонії та Косово, орієнтованих на американську аудиторію напередодні президентських виборів 2016 року. І саме AdSense стимулює нових учасників публікувати на YouTube вірусну дезінформацію. Багато клікбейт-ферм сьогодні монетизуються як за допомогою Instant Articles, так і за допомогою AdSense, отримуючи виплати від обох компаній.

Ділки та політика

У відповідь на висновки, які автори дослідження надали техногігантам, компанія Google підтвердила, що описані зловживання порушують її політику і закрила всі канали YouTube, які були визначені MIT Technology Review як такі, що розповсюджують дезінформацію.

«Ми докладаємо всіх зусиль, щоб захистити глядачів від клікбейтів або контенту, що вводить в оману на наших платформах, і вклали значні кошти в системи, призначені для підвищення авторитетності інформації», — заявила представник YouTube Айві Чой.

А представник Meta Джо Осборн заявив, що дослідники неправильно розуміють суть проблеми. “Незважаючи ні на що, ми багато років інвестували у створення нових масштабованих рішень цих складних проблем, заснованих на експертних оцінках, і продовжуватимемо це робити”, – сказав він.

За словами Осборна, за останні два роки Facebook створив кілька нових політик та протоколів для вирішення проблеми, включаючи покарання сторінок, які видаються за місцеві в чужих країнах, а також штрафи за сторінки, які заманюють аудиторію клікбейтами.

У відповідь на звіт MIT Technology Review директор з усунення глобальних загроз у Facebook Девід Агранович написав у Twitter про те, що дослідники помилково описують як одне явище ділків, які прагнуть монетизації контенту, та діячів, зацікавлених у політичному впливі на маси.

Проте, автори MIT Technology Review, посилаючись на експертів з дезінформації, висловлюють думку, що чітка межа між фінансово мотивованими спамерами та учасниками політичних кампаній – це ілюзія. Тому що тільки теоретично фінансово мотивовані ділки байдужі до публікованого контенту, а політичні гравці зацікавлені лише в просуванні потрібних їм поглядів. На практиці різниці немає, стверджують автори, і наводять на прикладі Філіппін перед виборами президента Родріго Дутерте у 2016 році. Під час президентських перегонів клікбейт-ферма, що офіційно зареєстрована, як компанія Twinmark Media, раптом перейшла від публікації звичного розважального контенту до просування політика.

На той час була поширена думка, що Twinmark найняли спеціально для проведення інформаційної кампанії. Але в інтерв’ю журналістам та дослідникам колишні співробітники Twinmark зізналися, що просто гналися за прибутком, тому що контент на підтримку Дутерте виявився затребуваним.

У результаті Дутерте почав домінувати у соціальних мережах, а через три місяці після його перемоги на виборах Марія Ресса, генеральний директор медіакомпанії Rappler (що отримала цього року Нобелівську премію миру, зокрема за боротьбу з дезінформацією), опублікувала статтю, в якій висловила думку про те, як передвиборча інформаційна кампанія у соцмережах викривила думку громадськості.

“Це стратегія “смерті від тисячі порізів” – відщипування від фактів, використання напівправди, які створюють альтернативну реальність, поєднуючи можливості ботів та фальшивих аккаунтів у соціальних мережах для маніпулювання реальними людьми”, – написала вона.

У 2019 році Facebook, нарешті, видалив 220 сторінок, 73 акаунти та 29 акаунтів Instagram, пов’язаних з Twinmark Media. На той час Facebook та Google вже заплатили фермі 8 мільйонів доларів. Ані Facebook, ані Google цю суму не підтвердили. А Джо Осборн із Meta навіть висловив незгоду з версією про те, що Facebook вплинув на ті вибори.

 

Ще по темі:

Читати статтю
Back to top button
Optimized with PageSpeed Ninja