В наше время одним из главных инструментов манипулирования массовым сознанием стали фейки. Грамотно созданная дезинформация способна подтолкнуть людей к желаемым действиям или бездействию. При этом фейковые материалы распространяются быстрее, чем реальные новости, и многие склонны им доверять. Как противостоять им, обсудили на семинаре «Междисциплинарные подходы к восприятию фейков: дезинформация в контексте потенциала человека».
Семинар прошел в рамках стратегического проекта «Успех и самостоятельность человека в меняющемся мире», который реализуется по программе «Приоритет-2030».
Модератор семинара, ведущий научный сотрудник Международной лаборатории социальной нейробиологии НИУ ВШЭ Василий Ключарев, открыл мероприятие цитатой из Ницше о том, что фактов на самом деле нет, а есть только интерпретации, мы не можем установить какой-либо факт «сам по себе».
При распространении информация о фактах может искажаться и интерпретироваться в целях манипуляции общественным сознанием. В наше время большое распространение получили дипфейки (метод распространения дезинформации с реалистичной подменой лица или голоса человека при помощи технологий искусственного интеллекта) и фейковые новости. Зачастую они распространяются быстрее, чем подлинный контент, особенно в социальных сетях. Современные технологии помогают создать правдоподобные фейки, которые трудно распознать.
Чтобы выявить факторы, способствующие доверию к таким материалам, научная группа Центра нейроэкономики и когнитивных исследований НИУ ВШЭ провела два исследования. Результаты представили две сотрудницы центра — стажеры-исследователи Элиана Монахова и Александра Морозова.
Первое исследование было посвящено дипфейкам. Исследователи исходили из гипотезы, что эффект доверия будет выше в том случае, когда слова дипфейк-спикера соответствуют мировоззрению и внутренним установкам участников.
Для исследования были специально созданы аудиодипфейки, героями которых стали две публичные личности — известный врач и ковид-диссидент. Испытуемым, россиянам 18–35 лет, сообщали, что они прослушают запись закрытых совещаний, на которых обсуждались вопросы вакцинации от коронавируса COVID-19. На записях спикеры транслировали позиции, противоположные их публичным высказываниям: врач говорил, что он против вакцинации, а ковид-диссидент поддерживал этот метод профилактики.
Испытуемые были разбиты на две группы. Первая включала в себя тех, кто поддерживает вакцинацию, вторая — тех, кто не склонен этого делать. Обе группы были ознакомлены с публичной позицией героев дипфейков, а сфабрикованные материалы считали подлинными.
Во время прослушивания дипфейков испытуемые были подключены к электроэнцефалографу. Запись ЭЭГ помогала ученым объективно оценить степень согласия с прослушанными утверждениями и доверия к ним.
Фото: iStock
Как оказалось, значимое влияние на доверие оказывали не внутренние установки испытуемых, а авторитетность спикера: в целом врачу доверяют больше. При этом группа пропрививочников демонстрировала безоговорочное доверие, а группа антипрививочников — доверие к конкретному сообщению, но к спикеру были настроены критично, так как он для них не являлся авторитетом.
В дальнейшем именно на фактор авторитетности планируется обратить особое внимание, рассказала Элиана Монахова. «Как показали результаты, людям очень важно, кто говорит, — даже больше, чем что он говорит», — отметила она.
Кроме того, исследователи хотят изучить, насколько подобная дезинформация может повлиять непосредственно на убеждения людей.
Вторая работа, посвященная исследованию нейрофизиологических механизмов эффективной коррекции дезинформации, пока только начата. Планируется демонстрировать участникам правдивые и фейковые заголовки на темы вакцинации, витаминов, ГМО, альтернативной медицины, здорового питания и лечения различных заболеваний. Часть из них будет предъявляться с дисклеймером, то есть последующим сообщением о ложности информации. Иногда сам дисклеймер будет фейком. Авторами сообщений выступят как авторитетные (например, ВОЗ), так и неавторитетные источники.
С помощью ЭЭГ, так же как и в первом исследовании, будут проводиться дополнительные тесты с целью оценить степень доверия к сообщению.
«Одна из гипотез этого исследования заключается в том, что участники с более высоким уровнем когнитивной рефлексии и потребности в познании будут оценивать новость более точно», — рассказала Александра Морозова.
Исследователи провели претест будущей работы, который показал, что в целом люди отличают фейки от настоящих новостей. Авторитетность спикера для них тоже достаточно важна.
Фото: iStock
Любопытно, что испытуемые практически не демонстрировали желание поделиться прочитанными новостями — как фейковыми, так и правдивыми — в соцсетях.
Это нормально, полагает Василий Ключарев. Большая часть людей по умолчанию не стремится распространять новости. «Целое направление для исследования — выявить тип и характеристики людей, которые являются ключевыми в распространении информации», — заметил он.
Также на семинаре выступил профессор департамента анализа данных и искусственного интеллекта факультета компьютерных наук НИУ ВШЭ Василий Громов. Он рассказал, можно ли распознать тексты, написанные ботами. На данном этапе еще удается идентифицировать тексты ботов на уровне GPT-3, но что будет дальше, можно только предполагать.
«Сейчас наблюдается деформация национальной языковой личности. Если мы росли на текстах, которые были написаны людьми для людей и с благой целью, то сейчас мы оказываемся погруженными во множество текстов, написанных неизвестно кем и неизвестно с какой целью. Что при этом будет происходить с человеческой личностью — это большой и сложный вопрос», — полагает он.
В исследовании тексты рассматривались как математические модели. Тексты представляют собой «лавины», а количество слов в них подчиняется степенному закону распределения. Топологический анализ может показать «нити и узлы», составленные из наиболее употребляемых словосочетаний, а также «пустоты», наполненные редкими словосочетаниями.
«На границах этих дыр обнаружился юмор. Оказывается, язык развивается через юмор: то, что сейчас нам кажется хохмочкой, через столетие окажется сложным философским термином хайдеггеровского типа», — рассказал Василий Громов.
При этом выяснилось, что при написании текстов боты стараются держаться подальше от «дыр», а людям, напротив, нравится быть поближе к ним. Дело в том, что компьютерные модели ориентируются на микроструктуру текста, но не в состоянии выделить макроразличия жанров. ИИ, в отличие от человеческого мозга, не способен отличить юмор от любого другого проявления языка.
«Тексты ботов слишком сильно отличаются, чтобы предположить, что в ближайшей перспективе их научатся подделывать», — считает профессор.
Эксперт департамента кибербезопасности ПАО «Сбербанк» Илья Бичаров рассказал о развитии культуры обращения с персональными данными.
«В современном мире персональные данные обесценились. Сейчас данных россиян в интернете больше, чем самих россиян», — заявил он.
Так, в этом году рост количества утечек достиг 400% по сравнению с 2022 годом: в интернет попало 177 млн записей о гражданах.
В будущем число утечек будет только расти, считает эксперт. Перед человеком появятся новые вызовы, и приватность станет привилегией.