Технология проверки информации в рамках проекта ННГУ им. Н.И. Лобачевского #СТУДFACTCHECK: проблема автоматизации процесса фактчекинга

    

    Международный образовательный проект #СТУДFACTCHECK был организован в Институте филологии и журналистики ННГУ им. Н. И. Лобачевского в 2020 году. Изначально он функционировал под эгидой Европейской ассоциации преподавания журналистики (EJTA) и был частью сетевого проекта EUFactcheck. В марте 2022 года название проекта в ННГУ им. Н. И. Лобачевского изменилось на #СТУДFACTCHECK. Материалы исследований студентов размещаются на специальной вкладке проекта на сайте ИФИЖ ННГУ на русском и английском языках. В своей работе участники руководствуются технологией верификации информации, разработанной преподавателями вузов-членов EJTA. Всего с ноября 2020 по май 2024 года студенты подготовили 35 самостоятельных исследовательских проектов. 

    Исследование и верификация информации в рамках проекта предполагает работу в трех форматах: фактчек, блогпост и медиа-анализ. Каждый из них имеет строгую структуру, систему доказательства и оформления. Именно технология проверки информации СМИ и социальных медиа в жанре фактчека может быть описана как базовая модель фактчекинга и использоваться для создания прототипа информационной системы, позволяющей в автоматическом режиме находить и атрибутировать фейковую информацию. Результатом работы над сюжетом или его частью, отдельным высказыванием, так называемым «клеймом» (claim), становится присвоение рейтинга, который указывает на соответствие критериям достоверности: «True» – правда, «Mostly True» – в большей степени правда, «Mostly False» – в большей степени ложь, «False» – ложь, «Uncheckable» – непроверяемый, основано на мнении, а не на фактах и проверяемых источниках (EUFactcheck. Flowchart. https://eufactcheck.eu/about-us/eufactcheck-flowchart/).

    На первом этапе высказывание, представленное в материале СМИ или социальных медиа, анализируется участниками исследования с точки зрения понимания содержания: является ли оно «фактом», «мнением», «предсказанием / предположением». «Мнение» и «предсказание» сразу отсекаются: они относятся к категории «непроверяемое», следовательно, не могут быть «истинными» или «ложными» с точки зрения процедуры фактчекинга. Если «клейм» (высказывание в рамках сюжета) определяется в качестве «факта» (для этого он должен, прежде всего, быть привязан к таким параметрам, как дата, событие, конкретный человек, место, количественные данные), то начинается непосредственный процесс проверки. Главной задачей данного этапа является выделение предмета высказывания и его четкая атрибуция с точки зрения смысла: верификация проводится только в системе того, что можно обозначить как «количественно/качественно атрибутируемое», то есть то, что можно объективно проверить при помощи статистики, географических данных, фото- и видеофиксации, данных геолокации, квалифицированного экспертного комментария. Если сделать этого нельзя, то проверка завершается, высказывание определяется как «непроверяемое». 

    После подтверждения возможности объективной проверки высказывания наступает этап, связанный с анализом источника и его авторства. Самое важное здесь – определить первичный источник, пройти по всей цепочке ссылок, чтобы убедиться в «существовании» автора и в том, что его информация может быть подтверждена при помощи объективных доказательств (факты, свидетели, обстоятельства, даты, упоминаемые географические локации, социальные сети). 

    На третьем этапе анализируется именно первичный источник, который и подвергается процедуре фактчекинга. Если такой источник найти не удается, высказывание квалифицируется как «непроверяемое». В рамках данного этапа студенты пытаются связаться с автором первоначального высказывания для того, чтобы получить комментарий или задать уточняющие вопросы, получить дополнительную информацию. Для этого используются возможности социальных сетей, личные контакты, материалы СМИ. 

    Одновременно с этим начинается активная работа по поиску эксперта, готового дать комментарий и оценить правдивость/ложность высказывания. Объективность высказывания, несомненно, в большей степени подтверждается мнением двух специалистов, но не всегда получается найти двух экспертов в конкретной узкой сфере или же не каждый раз удается получить комментарий. Иногда мнения экспертов могут не совпадать: в отдельных случаях это дает возможность использовать материалы интервью в жанре «блогпост», позволяющем расширить контекст сюжета, выказать мнения и оценки, имеющие отношение к фактчеку, но выходящие за его непосредственные рамки. Любое свидетельство в рамках системы доказательства «истинности» или «ложности» высказывания обязательно подкрепляется ссылкой на источник информации.

    В конце третьего этапа проставляется промежуточный рейтинг высказывания: подтвержденный «клейм» определяется как «правда»/«в большей степени правда», высказывание, не имеющие объективного подтверждения, – как «ложь»/«в большей степени ложь». Анализ комментария второго эксперта дает возможность окончательной атрибуции высказывания с точки зрения представленного выше рейтинга. 

    В качестве примера реализации технологии верификации информации в рамках проекта #СТУДFACTCHECK следует привести исследование студентов Института филологии и журналистики «Мораль и этические ценности ChatGPT: есть ли у ИИ четкая нравственная позиция?», размещенного на сайте ИФИЖ 17.05.2023 года на русском и английском языках. (http://www.fil.unn.ru/does-ai-have-strong-moracompass/, http://www.fil.unn.ru/does-ai-have-strong-moral-compass-en/). Изначально студентов заинтересовал сюжет, опубликованный на немецком портале Wissenschaft (Bernard E. ChatGPT beeinflusst moralische Urteile der Nutzer // Wissenschaft. 2023. 6 April, https://www.wissenschaft.de/technik-digitales/chatgpt-beeinflusst-moralische-urteile-der-nutzer/). Высказывание: «ChatGPT и искусственный интеллект в целом не обладают способностью различать моральные ценности и нормы» вызвало у членов команды проекта желание проверить его истинность / ложность в рамках технологии работы над фактчеком. Атрибуция предмета высказывания – технология ChatGPT и ее объективные характеристики – позволили провести верификацию данного «клейма». В процессе работы выяснилось, что статья на портале – вторичный источник, пересказ научного отчета «Непоследовательные моральные советы ChatGPT влияют на мнение пользователей», размещенного на сайте Nature (Krügel S., Ostermaier A., Uhl M. ChatGPT’s inconsistent moral advice influences users’ judgment // Nature. 2023. 6 April, https://www.nature.com/articles/s41598-023-31341-0). Именно поэтому, в соответствии с методологией исследования, было принято решение работать с этим источником. 

    В исходной статье приводятся результаты эмпирических исследований технологии, прежде всего, ответы нейросети на вопросы, имеющие морально-этический смысл. Студенты решили пойти аналогичным путем: чтобы доказать или опровергнуть тезис о непоследовательности нейросети в понимании событий и фактов, интерпретация которых зависит, в том числе, от нравственной позиции, они задавали ChatGPT подчас провокационные с моральной точки зрения вопросы. Для своеобразной «чистоты» эксперимента «диалог» с нейросетью велся на русском и английском языках. В отдельных случаях ответы отличались неопределенностью в трактовке сложных с точки зрения морального выбора ситуаций, а в других – особенно в русской и английской версиях – эти отличия были достаточно существенными. Результаты «эксперимента» позволили выставить предварительный рейтинг высказывания, которое приводилось в изначальной публикации, как «правда». Одновременно участники проекта обратились к экспертам. 

    Их мнения позволили окончательно сформулировать вывод по данному фактчеку и обосновать рейтинг «правда»: моральная позиция ChatGPT на данный момент во многом зависит от настроек, заданных разработчиком. Однако выставленные фильтры в отдельных случаях могут быть обойдены путем изменения запроса. При этом в настоящее время нейросеть дает на те же связанные с проблемами этики и морали вопросы неопределенные, осторожные ответы. Данный аспект может быть связан с тем, что разработчики ChatGPT не хотят нести ответственность за решения, которые могут повлиять на жизнь пользователей.

    Работа над сюжетом демонстрирует эффективность методологии проекта: проведенное студентами исследование имеет доказательную базу, четкую структуру, ссылки на эмпирические материалы. Использование алгоритма позволяет организовать процесс, отсекать лишние элементы, формулировать ясный результат. Несомненно, что подобная методология и ее результаты смогут ускорить процесс формирования технологии автоматизации процесса фактчекинга.

    Рассмотрим некоторые известные информационные системы, которые автоматизируют отдельные этапы процесса фактчекинга:

    AFCNR (Automated Fact Checking in the News Room): Система принимает утверждение в качестве входных данных, выполняет поиск по новостным статьям, извлекает потенциальные доказательства и представляет пользователю суждение о позиции каждого из них по отношению к рассматриваемому утверждению и общую оценку достоверности высказывания с учетом результатов указанного выше поиска. 

    BRENDA (Browser Extension for Fake News Detection): это расширение для браузера, которое позволяет пользователям проверять утверждения непосредственно во время чтения новостных статей. Оно поддерживает два типа ввода: либо полную страницу, открытую в браузере, либо выделенный фрагмент внутри страницы. В первом случае система осуществляет идентификацию потенциальной пригодности для проверки, чтобы решить, какие утверждения на странице следует подвергнуть процедуре фактчекинга.

    Full Fact AI: Эта система разработана для поддержки средств проверки фактов. Она следит за новостными сайтами и социальными сетями, идентифицирует и категоризирует утверждения. Затем система выясняет: проверялось ли исходное высказывание ранее и обогащает его дополнительной релевантной информацией, которая может помочь фактчекеру в процессе работы. Система ежедневно применяется в Великобритании в рамках проекта Full Fact.org.

    ClaimBuster - это платформа, объединяющая результаты совместной работы The University of Texas at Arlington (Университет Техаса в Арлингтоне, США) и Duke University (Дьюкский университет, Северная Каролина, США), связанные с созданием технологии по проверке фактов. Система начала разрабатываться как попытка создать модель искусственного интеллекта, которая могла бы автоматически обнаруживать утверждения, заслуживающие проверки. К сожалению, на данный момент, платформа вызывает сомнения с точки зрения практической её применимости в качестве действующей технологии верификации информации. 

    Google Fact Check Explorer – специализированная поисковая система для поиска высказываний и соответствующих им уже проведенных фактчекинговых исследований. Поиск осуществляется только среди веб-страниц, содержащих специальную разметку ClaimReview с краткими сведениями о проверке фактов для индексации поисковой системой 

    Российский опыт создания технологии верификации информации представлен в рамках деятельности АО «Крибрум» (в декабре 2022 года компания получила грант Российского фонда развития информационных технологий (РФРИТ) на развитие проекта «Разработка системы анализа и визуализации разрозненных данных, включая данные социальных сетей «Крибрум. OSINT»), а также проектов под эгидой Федеральной службы по надзору в сфере связи, информационных технологий и массовой коммуникации (Роскомнадзор) и АНО «Диалог Регионы». АНО «Диалог регионы» запустил информационную систему мониторинга аудиовизуальных материалов (дипфейки) на основе распознавания речи в режиме реального времени. Соответствующая разработка представлена в ходе сессии ПМЭФ-2023 «Устойчивый цифровой диалог как драйвер многополярного мира». 

    ПО «Зефир»: «Зефир» работает как информационная система мониторинга аудиовизуальных материалов на основе транскрибации в режиме реального времени. Она позволяет моментально выявлять дипфейки благодаря алгоритмической оценке и анализу с помощью искусственного интеллекта. «Зефир» позволяет верифицировать материалы категории Deepfake с точностью результатов 77,3%»,

    ИС «Вепрь» (разработка ИТ-компании «Необит», Санкт-Петербург): «Разработка информационной системы «Вепрь» ведется с 2022 года. На сегодняшний день первые модули системы проходят внутреннее тестирование, запуск запланирован на вторую половину 2023 года», - рассказали в пресс-службе. «Вепрь» вместе с автоматизированной системой «Окулус», которая выявляет нарушения законодательства РФ в изображениях и видеоматериалах, входит в единую систему мониторинга информационного пространства ГРЧЦ (Главный радиочастотный центр).

    Автоматизированные системы верификации информации с применением технологий искусственного интеллекта позволяют помочь специалистам в области фактчекинга. Например, с ними можно быстро осуществить поиск высказываний, заслуживающих проверки, а также соответствующих им ранее проверенных утверждений, а затем найти подтверждающие доказательства (в виде текста, аудио или видео), осуществить перевод с других языков и обобщить соответствующие сообщения, статьи и документы. 

    Несмотря на то, что автоматическая проверка является сложной задачей, для определенных категорий высказываний, которые становятся объектом проверки, уже имеются перспективные результаты. Например, утверждения относительно числового значения факта, такие, как «в 2023 году мировой спрос на электроэнергию вырос на 3%», может быть проверено автоматически, с использованием данных официальной статистики. Успех здесь зависит от наличия надежных данных, представленных в согласованном формате, которые подчас варьируются в зависимости от страны и области применения. 

    Несмотря на то, что точность и масштаб автоматизированных алгоритмов проверки фактов продолжают увеличиваться, две проблемы препятствуют их внедрению в организациях, занимающихся фактчекингом. Во-первых, на данный момент даже на структурированных наборах данных их эффективность недостаточно высока для принятия полностью автоматических решений. Во-вторых, большинство заявлений в публичной сфере носят более сложный характер, например, тезис о том, что вакцины против COVID-19 были разработаны слишком быстро и все еще являются экспериментальными. Чтобы проверить такие утверждения, специалистам по проверке фактов, возможно, потребуется опросить экспертов, сотрудничать с другими специалистами по проверке фактов, понять контекст и формулировку утверждений, проверить множество разнородных источников и улик – все это требует интеллекта человеческого уровня. Общая проверка произвольных утверждений требует глубокого понимания реального мира, которое в настоящее время недоступно ИИ. 

    В завершение следует отметить, что подключение ИТ-специалистов к созданию гибридных технологий автоматизации процессов верификации информации с их последующим внедрением в процесс подготовки будущих журналистов является насущной задачей, реализация которой предполагает взаимодействие экспертов в области информационных технологий и социально-гуманитарного знания.

(С) Л.С.Макарова, Ю.В.Баташев, 2023

Drag and Drop Website Builder