Декількома словами
Дослідження UPV показало, що дезінформація про повінь у Валенсії викликала різні емоції в X (сум, страх) та TikTok (гнів, огида) через особливості платформ. Фейки часто апелюють до емоцій та використовують специфічну мову. Для боротьби з поширенням неправдивої інформації пропонується використовувати штучний інтелект.

Соціальні мережі апелюють до емоцій, особливо в кризових ситуаціях та за умов поширення дезінформації, як це було під час повені DANA 29 жовтня, що забрала життя 227 людей у провінції Валенсія. Ці реакції відрізняються залежно від соціальної мережі, як свідчить дослідження, проведене науковцями Політехнічного університету Валенсії (UPV).
Емоційна парадигма неоднакова, оскільки кожна платформа активує різні когнітивні та сенсорні процеси. Проаналізувавши сотні повідомлень про повінь DANA у X та TikTok, дослідники дійшли висновку, що дезінформація в X переважно асоціюється з більшим сумом та страхом, тоді як у TikTok вона корелює з більшим гнівом та огидою, зазначається у пресрелізі.
«У X, оскільки контент переважно текстовий, користувачі повинні інтерпретувати інформацію, що сприяє більш інтроспективній емоційній реакції, де наративи, що підкреслюють трагедії та негативні події, розгортаються повільніше, викликаючи почуття суму та страху. Натомість TikTok, інтегруючи візуальні та аудіальні елементи, пропонує мультисенсорний досвід, що викликає негайні та інтенсивніші реакції», — пояснюють дослідники UPV Паоло Россо та Іван Аркос. Вони дійшли висновку, що реактивні та вісцеральні емоції, які генерує TikTok, зосереджені на гніві та відразі.
Це деякі з висновків дослідження «Дивергентні емоційні патерни дезінформації в соціальних мережах. Аналіз твітів та тіктоків про DANA у Валенсії», проведеного під керівництвом Івана Аркоса, Паоло Россо та Рамона Салаверрії зі Школи комунікації Університету Наварри.
Драматична музика, тональні варіації та візуальні ефекти китайської соціальної мережі діють як каталізатори, що провокують ці менш обдумані емоції. Крім того, аудиторія TikTok, «звикла до динамічного контенту, що швидко змінюється, схильна обробляти інформацію більш миттєво, що сприяє емоційній поляризації перед обличчям дезінформації», — підсумовують Россо та Аркос, які працюють у дослідницькому центрі PRHLT.
Дослідження, проведене в рамках Iberian Digital Media Observatory та опубліковане на Конференції зі штучного інтелекту ICAART-2025, було виконане після аналізу поширення дезінформації в цих двох соціальних мережах під час повені DANA у Валенсії 29 жовтня. Для цього було проаналізовано емоційні та лінгвістичні патерни 650 публікацій з X та TikTok.
Звіт підтверджує висновок, що апеляція до емоцій є навмисною та частою стратегією в оманливих повідомленнях. Лінгвістичний аналіз повідомлень показує, що надійний контент використовує більш структуровану мову, тоді як фейкові повідомлення застосовують заперечення, особисті анекдоти або посилання на родичів для легітимізації своїх тверджень через прямі свідчення та для створення враження правдивості.
Під час аналізу повідомлень у соцмережах використовувалися ключові слова, пов’язані з повінню DANA, які генерували тисячі реакцій на фейки, такі як приховування сотень тіл на парковці торгового центру Bonaire (жодної жертви там не знайшли) або численні неправдиві повідомлення про відхилену допомогу чи руйнування дамб. Деякі з найбільш використовуваних ключових слів: «змова», «приховування загиблих», «обман», «маніпуляція», «брехня», «Bonaire кладовище», «відхилена допомога» або «спровоковані дамби».
В аудіозаписах публікацій TikTok виявлено різні патерни: надійні аудіо мають яскравіші тони та роботизовані або монотонні наративи, що створює ясність та довіру, тоді як повідомлення, що поширювали дезінформацію, використовували варіації тону, емоційну глибину та музичні елементи для зміни сприйняття.
З огляду на зростання дезінформації в соціальних мережах, дослідники вказують на використання штучного інтелекту для допомоги платформам у верифікації контенту, оскільки ШІ «міг би автоматично аналізувати тисячі публікацій, виявляти характерні патерни дезінформації та повідомляти про це модераторів. Також він міг би попереджати користувачів про можливу сумнівну правдивість певних постів, що сприяло б зменшенню поширення оманливої інформації», — підсумовується у пресрелізі.