fbpx
ФактчекФактчек NEWSФактчек-лабораторія

Чи можна побороти дезінформацію – що пропонують дослідники сучасних медіа?

Келлі Борн, дослідник сучасних медіа, про проблеми дезінформації, різниці між помилкою в даних і пропаганді, а також про те, хто, чому і як поширює дезінформацію.

З тих пір як в листопаді 2016 року президентські вибори в США продемонстрували уразливість цифрових інформаційних каналів для розповсюджувачів «фейкових новин», не припиняються дебати з приводу того, як саме треба боротися з дезінформацією. Ми вже проробили великий шлях за ті вісім місяців, які пройшли з моменту виступу керівників Facebook, Google і Twitter перед Конгресом США, коли вони відповідали на питання про те, як російські структури скористалися їх платформами з метою вплинути на вибори. Однак якщо щось і стало зрозуміло в ході цих пошуків можливих рішень, так це те, що «срібної кулі» не існує.

Замість одного всеосяжного рішення, здатного все виправити, нам необхідний ряд кроків, які дозволяють вирішити дану проблему одночасно з різних сторін.

Сучасні інформаційні екосистеми схожі на кубик Рубіка: потрібні різні кроки, щоб вирішити цю головоломку на кожній з її сторін. І коли мова заходить про цифрову дезінформацію, необхідно враховувати, як мінімум, чотири аспекти.

По-перше: хто ділиться дезінформацією?

Дезінформація, поширювана іноземними структурами, може трактуватися зовсім інакше (юридично і нормативно), ніж дезінформація, поширювана самими громадянами країни. Особливо в Сполучених Штатах, з їхнім захистом свободи слова і, порівняно, суворими правилами, що не мають аналогів у світі.

У США можна впоратися з менш витонченими випадками іноземного втручання, завдяки комплексу методів по визначенню рідної мови і геолокації, які дозволяють ідентифікувати тих, хто діє ззовні країни. А якщо зміни на рівні платформ не спрацьовують, тоді можливе застосування більш широкого державного втручання, наприклад, тотальні санкції.

По-друге, чому поширюється дезінформація?

«Помилкова інформація», тобто неточна інформація, поширювана ненавмисно, помітно відрізняється від дезінформації або пропаганди, поширюваних навмисно. Запобігати мимовільному поширенню неправдивої інформації тими, хто має добрі наміри, можна, принаймні частково, за допомогою кампаній з підвищення новинної грамотності чи ініціатив, які допомагають перевіряти факти. А от не дозволяти особам з поганими намірами навмисно поширювати таку інформацію вже складніше, і рішення цієї задачі залежить від специфіки їх цілей.

Щодо тих, хто мотивований прибутком (як, наприклад, зараз стали сумно відомими македонські підлітки, що заробили тисячі доларів на сайтах «фейкових новин»), може допомогти нова рекламна політика, що руйнує подібні моделі отримання доходів. Однак такі заходи не зупинять тих, хто поширює дезінформацію з політичних чи соціальних причин. Якщо ці особи працюють в рамках організованих мереж, може знадобитися спеціальне втручання для руйнування ефективності всіх подібних мереж.

По-третє, як поширюється дезінформація?

Якщо люди діляться контентом через соціальні мережі, може виявитися достатньо змін у політиці подібних платформ та/або у їх державному регулюванні. Але ці зміни повинні бути конкретними.

Наприклад, для видалення ботів, яких використовують з метою штучного розмноження контенту, платформи можуть вимагати від користувачів розкриття реальних особистостей (втім, це буде проблематично у випадку з авторитарними режимами, де анонімність захищає прихильників демократії). Для обмеження складного мікротаргетування (тобто використання даних про користувачів і демографії для передбачення інтересів і поведінки людини з метою вплинути на його думки або дії) платформ, можливо, доведеться змінити свою політику надання доступу до даних і захисту персональної інформації, а також ввести нові правила для реклами. Наприклад, замість того, щоб надавати рекламодавцям можливість всього лише за $30 звернутися до тих 2300 людей, які, швидше за все, «ненавидять євреїв», платформи повинні (в деяких випадках вони вже почали це робити) розкривати цільову аудиторію політичної реклами, забороняти певні критерії таргетування, а також обмежувати мінімальний розмір групи, що таргетується.

Це своєрідні перегони озброєння. Погані користувачі будуть швидко знаходити шляхи обходу будь-яких змін, що вводяться цифровими платформами. Постійно потрібні нові методи, наприклад, використання блокчейна для підтвердження оригінальності фотографій.

Але можна не сумніватися в тому, що цифрові платформи краще підготовлені до постійного коригування своєї політики, ніж державні регулятори.

Втім, цифрові платформи не можуть впоратися з дезінформацією поодинці, і не в останню чергу тому, що на частку соціальних мереж, за оцінками, припадає лише близько 40% трафіку найбільш запеклих сайтів «фейкових новин»; решта 60% трафіку надходять «органічно» або через «тіньові соціальні мережі» (наприклад, повідомлення або листи, якими обмінюються друзі). Цим шляхами управляти набагато важче.

Останній, і, напевно, найважливіший аспект головоломки дезінформації:

Що саме поширюється?

Експерти зазвичай фокусуються на однозначно «фейковому» контенті, який найпростіше ідентифікувати. У цифрових платформ, природно, є стимули обмежувати присутність такого контенту, хоча б тому, що люди, як правило, не люблять виглядати нерозумно, як це відбувається, коли вони діляться абсолютно брехливими новинами.

Але людям подобається читати і ділитись інформацією, яка відповідає їхній точці зору; і ще більше їм це подобається, якщо подібна інформація викликає сильні емоції, перш за все, обурення. А оскільки користувачі активно реагують на такий контент, у цифрових платформ є стимули показувати його активніше.

Подібний контент не просто поляризує суспільство; він часто вводить в оману і підбурює, і є навіть свідчення того, що він може заважати конструктивному демократичному діалогу. Але де проходить лінія між небезпечними розбіжностями, викликаними спотвореннями, і запеклими політичними дебатами, які викликані конфліктом світоглядів? І хто (якщо взагалі хто-небудь) повинен її проводити?

Навіть якщо б на ці етичні питання можна було дати відповідь, ідентифікація проблемного вмісту у великих масштабах наштовхується на серйозні практичні перешкоди. Багато з найбільш тривожних прикладів дезінформації стосувалися не якихось конкретних виборів чи кандидатів, вони розпалювали вже існуючі соціальні розбіжності, наприклад, що стосувалося расових питань. І нерідко поширення цих повідомлень здійснювалося без купівлі реклами. В результаті, вони не можуть потрапити під регулювання в рамках нових правил, що стосуються передвиборчої реклами, наприклад, «Закону про чесну рекламу», який підтримали Facebook і Twitter.

Якщо в США шляхи вирішення проблеми дезінформації залишаються неясними, то в міжнародному плані ситуація ще складніша, оскільки за кордоном ця проблема ще більш децентралізована і непрозора. І це ще одна причина, чому неможливо прийняти одне всеосяжне і всеохоплююче рішення.

Та хоча кожен із запропонованих варіантів вирішує тільки одну вузьку проблему (наприклад, поліпшення рекламної політики дозволяє вирішити 5% проблеми дезінформації, а різні методи, що стосуються мікротаргетування, – 20%), всі разом вони все ж таки дозволяють досягти прогресу. Кінцевим результатом стане інформаційне середовище, яке (попри свою недосконалість) буде містити лише порівняно невеликий обсяг проблемного контенту, що неминуче в демократичних суспільствах, в яких цінується свобода слова.

Є хороша новина: у експертів тепер з’явиться доступ до захищених персональних даних Facebook, що дозволить їм зрозуміти (і поліпшити) вплив цієї платформи на вибори і демократію у всьому світі. Можна сподіватися, що інші цифрові платформи (наприклад, Google, Twitter, Reddit і Tumblr) підуть по стопам цього прикладу. За допомогою правильних висновків і рішучості здійснювати фундаментальні (хоча і поступові) зміни суспільний і політичний вплив цифрових платформ можна буде зробити безпечним (або, принаймні, менш небезпечним) для демократії, яка сьогодні опинилася в облозі.

 

Сабіна Мусіна. За матеріалами партнерського ресурсу Factcheck.kz

Ще по темі:

Close