Инструменты искусственного интеллекта могут улучшить обнаружение поддельных новостей, анализируя взаимодействия пользователей и комментарии

В бумага опубликованные на сервере препринтов Arxiv.org, исследователи из Microsoft и Университета штата Аризона предлагают подход к обнаружению фальшивых новостей, использующий метод, называемый слабым социальным контролем. Они говорят, что благодаря обучению искусственному ИИ, обнаруживающему новости, даже в тех случаях, когда помеченные примеры недоступны, слабый социальный надзор открывает дверь к изучению того, как аспекты взаимодействия с пользователем указывают на то, что новости могут вводить в заблуждение.

По данным исследовательского центра Пью, примерно 68% взрослого населения США получили новости из социальных сетей в 2018 году, что вызывает беспокойство, учитывая дезинформацию о пандемии продолжает распространяться, например. Компании из facebook а также щебет в Google ищут решения для автоматического обнаружения, но фальшивые новости остаются движущейся целью из-за их тематического и стилистического разнообразия.

Основываясь на исследовании, опубликованном в апреляСоавторы этой последней работы предполагают, что слабый контроль — когда шумные или неточные источники обеспечивают сигналы маркировки данных — может повысить точность обнаружения поддельных новостей, не требуя тонкой настройки. С этой целью они создали систему, получившую название Tri-Relationship for Fake News (TiFN), которая моделирует пользователей социальных сетей и их соединения в качестве «сети взаимодействия» для обнаружения поддельных новостей.

Интерактивные сети описывают отношения между сущностями, такими как издатели, новости и пользователи; учитывая сеть взаимодействия, цель TiFN состоит в том, чтобы внедрить различные типы объектов, что следует из наблюдения, что люди склонны взаимодействовать с друзьями-единомышленниками. Делая свои прогнозы, фреймворк также учитывает тот факт, что подключенные пользователи с большей вероятностью разделяют схожие интересы в новостях; что издатели с высокой степенью политической предвзятости чаще публикуют фальшивые новости; и что пользователи с низким уровнем доверия, скорее всего, будут распространять поддельные новости.

VB Transform 2020 онлайн — 15-17 июля Присоединяйтесь к ведущим руководителям AI: Зарегистрироваться на бесплатный прямой эфир,

Чтобы проверить, может ли слабый социальный надзор TiFN помочь в эффективном обнаружении поддельных новостей, команда проверила его по набору данных Politifact, содержащему 120 достоверных новостей и 120 проверяемых поддельных материалов, которыми поделились 23 865 пользователей. По сравнению с базовыми детекторами, которые учитывают только новостной контент и некоторые социальные взаимодействия, они сообщают, что TiFN достиг точности от 75% до 87% даже при ограниченном количестве слабого социального контроля (в течение 12 часов после публикации новостей).

В другом эксперименте, включающем отдельную пользовательскую среду под названием Defend, исследователи стремились использовать в качестве слабого надзора сигнальные новостные предложения и комментарии пользователей, объясняющие, почему новость является поддельной. Протестировано на втором наборе данных Politifact, состоящем из 145 истинных новостей и 270 поддельных новостей, с 89 999 комментариями от 68 523 пользователей в Твиттере, они говорят, что Defend достиг 90% точности.

(W) С помощью слабого социального надзора со стороны предвзятости издателей и доверия пользователей эффективность обнаружения выше, чем у тех, кто не использует слабый социальный контроль. Мы (также) отмечаем, что, когда мы исключаем компонент новостного контента, компонент комментариев пользователя или совместное внимание к новостному контенту и комментариям пользователей, производительность снижается. (Это) указывает на то, что важно уловить семантические отношения между слабым социальным контролем из комментариев пользователей и содержания новостей », — писали исследователи. «(W) мы можем видеть в определенном диапазоне, что более слабый социальный контроль ведет к большему увеличению производительности, что свидетельствует о выгоде использования слабого социального контроля».



Источник: Инструменты искусственного интеллекта могут улучшить обнаружение поддельных новостей, анализируя взаимодействия пользователей и комментарии


Обратная ссылка при копировании статьи: Инструменты искусственного интеллекта могут улучшить обнаружение поддельных новостей, анализируя взаимодействия пользователей и комментарии

Leave a comment