Фейк-новости как инструмент социального управления и объект применения методов информационной безопасности
Fake news as a tool of social management and an object of application of information security methods
Авторы
Аннотация
в контексте информационной безопасности в статье рассматривается социальное воздействие фейков, как инструмента формирования общественного мнения и общественного поведения. В этих обстоятельствах актуальны задачи обеспечения информационной и национальной безопасности, борьбы с фейковым контентом, который имеет немалый негативный потенциал для социально-экономической и политической дестабилизации.
Ключевые слова
социальные технологии, фейковые новости, манипуляция общественным мнением, информация, СМИ, информационная безопасность, fake news, false information, misinformation, persuasive information, deep fake.
Рекомендуемая ссылка
Кондратьев Руслан Ярославович,Миронова Наталия Геннадьевна. Фейк-новости как инструмент социального управления и объект применения методов информационной безопасности // Современные технологии управления. ISSN 2226-9339. — №1 (91). Номер статьи: 9106. Дата публикации: 25.04.2020. Режим доступа: https://sovman.ru/article/9106/
Authors
Abstract
in the context of information security, the article considers the social impact of fakes as a tool for shaping public opinion and public behavior. In these circumstances, the tasks of ensuring information and national security, combating fake content, which has considerable negative potential for socio-economic and political destabilization, are relevant.
Keywords
social technologies, fake news, manipulation of public opinion, information, media, information security, fake news, false information, misinformation, persuasive information, deep fake.
Suggested citation
Kondrat'yev Ruslan Yaroslavovich,Mironova Nataliya Gennad'yevna. Fake news as a tool of social management and an object of application of information security methods // Modern Management Technology. ISSN 2226-9339. — №1 (91). Art. # 9106. Date issued: 25.04.2020. Available at: https://sovman.ru/article/9106/
Введение
Цифровые, в частности нейросетевые, технологии дали бизнесу (в первую очередь медиабизнесу и PR-специалистам), политическим группам и спецслужбам новые возможности воздействия на «целевую» аудиторию. Нейросети помогают собирать из разных источников и анализировать огромные объемы данных разнообразных форматов, генерировать и синтезировать контент, контролировать поведение практически любого отдельно взятого человека или объекта. Новые технологические возможности используются также злоумышленниками для получения политических и финансовых выгод. В частности, технологии находят применение при создании фейковых новостей — заведомо ложных «новостных» сюжетов, намеренно распространяемых через средства массовой информации с целью дезинформации граждан, оказания влияния на политические и экономические процессы, для ведения информационных войн. Действенность слухов и фейков в «цифровую эпоху» значительно возросла по своей «эффективности» благодаря коммуникационным сетям и технологиям, позволяющих мгновенно, красочно, адресно разнести фейк-сообщение по «целевой аудитории», многократно увеличить воздействие на массовое сознание благодаря резонансу в медиа-пространстве и цифровых СМИ.
В этих обстоятельствах актуальны задачи обеспечения информационной и национальной безопасности, борьбы с фейковым контентом, который имеет немалый негативный потенциал для социально-экономической и политической дестабилизации.
Результаты исследований
Фейк-ньюс (от англ. fake — подделка) это дезинформирующее сообщение в СМИ, которое вводит аудиторию в заблуждение и обычно решает задачу получить финансовую, политическую или иную выгоду для создателя фейкового сообщения.
Политики и бизнес решают самые разные задачи с помощью инструмента фейк-новостей – от провоцирования массовых беспорядков и цветных революций – до опустошения полок магазинов и складов с залежалым товаром (последний эффект мы наблюдали совсем недавно, в конце марта, когда население, напуганное фейк-сообщениями в сетях о скором исчезновении продуктов из эпидемии, массово скупало бытовую химию, туалетную бумагу и крупы, не вызывавшее такого покупательского ажиотажа ни прежде, — ни сейчас).
Эффективность практики использования фейк-новостей и другой откровенной дезинформации, распространяемых с использованием сервисов Интернет, стала очевидна не только политтехнологам и маркетологам, но и других PR- и CEO-специалистам благодаря «успешному» их использованию в политических кампаниях. В США в период президентских выборов 2016 года фальшивые новости стали столь тотально заполнять сетевые СМИ, что стали восприниматься как проблема и одна из главных угроз современной цивилизации. После череды форумов, научных и публицистических статей на тему необходимости борьбы с фейками родилась целая новая индустрия «борьбы с фейковыми новостями», обещающая и немалые выгоды специалистам по борьбе с фейками (на борьбу с фальшивыми новостями можно потратить очень большие суммы денег без особых шансов на победу, что делает задачу идеальной для развития бюджета).
В последние десятилетия технологии воздействия на массовое сознание приобрели новые масштабы благодаря информационным технологиям, чье влияние на жизнь общества стало тотальным, всепроникающим. Информационные технологии – западная «фишка». Любая удачная технология, родившаяся в той или иной культуре, в первую очередь становится движущей силой для роста культурного влияния той культуры, где эта технология первой возникла и нашла применение. Информационные технологии, развивающиеся в тесной связи с социальными и психо-технологиями, стали той «мягкой силой», с помощью которой запад активно переформатирует международную системы по всем направлениям (политика, образование и культура, инфраструктурные изменения, финансовые процессы и т.д.) [1]. Информационные технологии и сетевые СМИ придают современной социальной реальности формы, все более напоминающие техномиры антиутопий О.Хаксли, Дж.Оруэла, Е.Замятина и т.п.
Практика манипулирования общественным мнением и поведением имеет долгую историю, а фейки как средство ведения информационных войн (пропаганды и контрпропаганды) издавна и широко используются в политической практике. Не брезгуют фейк-сообщениями и корпорации, и мелкий бизнес при проведении маркетинговых кампаний, в процессе экономической конкурентной борьбы. В сети интернет эпизодически появляются псевдонаучные сообщения об «открытиях», доказанных гипотезах, псевдо-результатах исследований и т.п., которые вводят в заблуждение научное сообщество и широкую общественность. Военные некоторых стран используют фейковые новости о мощи своего ВПК, чтобы деморализовать или дискредитировать потенциального противника и т.д.
Тема манипуляций общественным мнением исследована с разных точек зрения в работах таких авторов, как С.Г. Кара-Мурза, Б.Н. Бессонов, Г.В. Грачев, E.JI. Доценко, И.К. Мельник, Г. Франке и мн. др. Тема борьбы с фальшивыми новостями становится предметом обсуждения глав информагентств мира на форумах, поводом к изменению законодательства стран, стремящихся защитить население от токсичных псевдо-новостей, способных подорвать благополучие целых регионов. — Не секрет, что непосредственным поводом к революциям и переворотам были не только объективные социальные условия, но и слухи, агрессивная пропаганда, ложь и провокации, порождавшие панические настроения и радикальные массовые действия.
Цели использования фейк-сообщений различны:
- развлечение, отвлечение и привлечение внимания,
- повышение монетизации (например, повышение посещаемости интернет-ресурса, реклама издания или товара),
- дискредитация конкурентов,
- введение в заблуждение целевой аудитории,
- провоцирование определенных форм массового поведения (в т.ч. уличных беспорядков),
- внедрение новых форм поведения и иное переформатирование социальной реальности через воздействие на коллективное сознание.
Технологии «фейк-ньюс» имеют древнюю историю. Слухи, «сарафанное радио» — традиционный метод дезинформации. Пример — противостояние итальянских элит: семейство Медичи в борьбе с семьей Борджиа распространяло среди жителей Рима и Флоренции неблагоприятные слухи об близких отношениях Чезаре Борджиа и его сестры Лукреции Борджиа. Учитывая, что их отец был Папой Римским, репутационный урон это наносило весьма значительный [2]. Другой пример манипуляции общественным мнением в средневековой Европе имел место в период активности инквизиции, поощрявшей с помощью распространения слухов разжигание социальной нетерпимости, способствовавшей еврейским погромам и другим формам жестокости [3]. Правители во все времена активно пользовались слухами для реализации политических целей; так, египетский фараон Рамзес II распространял слухи о своей победе в битве при Кадеше [4].
СМИ традиционно выступают инструментом формирования общественного мнения и средством дезинформации. Журналисты и сами отмечают, что в XX веке многочисленность СМИ и их острая борьба за читателя привела к тому, что в «желтых» СМИ новости зачастую вовсе не проверяются на достоверность. Желание привлечь внимание и ресурсы аудитории любой ценой привело к тому, что «желтизне» подвергались достаточно крупные издания. Так, что во времена великой депрессии 1929 года The New York Times опубликовало сообщения о брокерах-самоубийцах, породившие панические настроения в обществе; и хотя через несколько дней газета призналась, что публикация написана на основе лишь слухов, другие СМИ еще несколько месяцев перепечатывали непроверенную будоражущую информацию со ссылкой на «солидное издание», сопровождая ее все новыми и новыми подробностями. Это подогревало панику среди обедневшего и потерявшего работу населения Соединенных Штатов.
Пример использования для военной пропаганды фейков в СМИ приводит А.Э.Петросян [5]: во время Первой мировой войны немецкая газета «Kolner Zeitung» опубликовала статью об взятии германскими войсками французского города Анвер, и добавила, что по этому поводу в городе будут звонить колокола местных церквей. Патриотически настроенная французская газета «Le Matin», со ссылками на Kolner Zeitnung, процитировала эту «новость» и добавила от себя, что по случаю своей победы немецкие военные заставили Анверских священников звонить в колокола. В свою очередь, британская «The Times» подхватила эту «новость» от «Le Matin», добавив уже от себя, что всех священников, отказавших звонить в колокола, в честь победы немецких войск, отстранили от своих должностей. Далее, итальянская «Corriere della Sera», ссылаясь на британские The Times, добавила, что всех священников из города Анвер, отказавшихся сотрудничать с Германией, отправили на каторжные работы. Чуть позже, французская газета «Le Matin» со ссылкой на «Corriere della Sera», напугала читателя подробности о том, что германская армия, зайдя во французский город Анвер, за героический отказ звонить в колокола по случаю победы немцев, повесила упрямых священников вниз головой под колоколами.
Фейковая информация может принимать разные медиаформы — текст, фото-, видео- или аудио-сообщение, обычная и «вирусная» реклама в СМИ и соцсетях, вбросы в мессенджерах Viber, WatsApp и др., использование бот-сетей, имитирующий горячее обсуждение живых собеседников на форумах и в социальных сетях. Для массированного продвижения фейковых новостей действуют ботофермы и «фабрики сетевых троллей». Широко практикуется пранкинг, другие технологические формы дезинформирования, продвижения личностей, теорий, идей, проектов, партий — с целью создания в общественном сознании определенного желаемого их образа (позитивного или негативного).
Современные формы политической дезинформации неизмеримо богаче, но преследуют те же цели. Нейросети способны генерировать текстовый фейковый контент по аналогии с моделями авторских статей [6] проворнее журналистов-людей. В 2019 года прошла волна экспериментов по использованию GAN-нейросетей для синтеза фейкового цифрового видео и для «клонирования» голосов. Так, осенью 2019 г. компания Amazon объявила о способности голосовой smart-колонки компании «Alexa» способна разговаривать с потребителем голосами знаменитостей; в 2019 г. специалисты российской АБК представили нейронную сеть, говорящую любой текст голосом Иннокентия Смоктуновского. Нейросеть синтезирует речь голосом реального человека, вкладывая в его цифровые «уста» текст любого содержания, которую сам человек никогда не произносил.
Мошенники с помощью подобной технологий могут выполнять голосовую биометрическую авторизацию от имени жертв мошенничества на банковских и других сетевых сервисах, которые распознают клиентов по рисунку голоса. — Злоумышленникам для синтеза голоса жертвы достаточно трех секунд даже плохо записанной речи, чтобы «научить» нейросеть говорить любой текст голосом жертвы. [7]. Получить образец голоса злоумышленники могут с помощью robocall (автозвонков), объекту мошенничества достаточно трубку и задать обычные вопросы, например: «Да? С кем я разговариваю? Что вы хотели?..». После клонирования голоса мошенники смогут, например, пройти голосовую авторизацию в банке от имени жертвы.
Появились основанные на технологии ИИ генераторы новостей и синтезированного медиа-контента, в т.ч. фейковых новостей, «глубоких фейков» (Deep Fake), позволяющая делать реалистичные фото-, аудио- и реалистичные видео-подделки (в т.ч. созданные на основе только голоса реального лица). Так, исследователи из Технологического университета Наньянга в Сингапуре и китайские разработчики искусственного интеллекта SenseTime разработали метод создания «дип-фейков» на основе аудиозаписи: ИИ берет аудиозапись одного человека, соединяет с фотоизображением или видео другого человека (или того же человека) — и генерирует реалистичную видеозапись того, как человек произносит слова из источника звука; человек в видео становится марионеткой для оригинального голоса. [8] и т.п.). В основе дипфейков лежат генеративно–состязательные нейросети (GAN1), которые в результате обучения на реальном наборе аудио-, видео- и фото-материала об определенной персоне могут синтезировать реалистичный фейковый контент об этой персоне, поместив ее в любую роль, любой антураж, вложив в речь, рисунок голоса и мимику любой текст. У зрителя при просмотре дип-фейкового видео сложится впечатление, что он смотрит реально снятое видео.
Deep fake применяется в шоу-бизнесе (в рекламе, для «анимации» мультипликационных персонажей, умерших актеров, певцов), но также эта технология становится инструментом «черного пиара» для разрушения репутации политиков и других медиа-персон, для шантажа, обмана зрителя и слушателя, для разжигания ненависти между социальными группами. Технология способна влиять на политику, стать угрозой национальной безопасности, использоваться для финансовых махинаций, — например, манипуляций с т.н. «цифровыми двойниками граждан» и т.п. Поэтому ее использование должно быть как-то юридически отрегулировано. Так, в Китае с января 2020 г. действует уголовный закон, запрещающий публикацию дипфейков без специальной и различимой пометки [9].
Интернет, который должен был связывать всех людей в одну общую сеть и убрать между пользователями границы для общения, в итоге, стал главной площадкой, на которой любые желающие (в том числе новостные издания) могут распространить фейк. Ведь вряд ли, читая очередную ленту новостей в Google или Yandex, мы куда-то пойдем перепроверять информацию.
Общественное и политическое влияние этих компаний на массовое сознание и поведение граждан также стало очень велико. Мессенджер WhatsApp стал популярным средством оперативного общения граждан во многих странах, но по этой причине он стал инструментом манипуляции общественным мнением; так, в Индии фейковые WhatsApp-сообщения привели к тому, что десятки человек были убиты толпой из-за ложных сообщений об их вине в похищении детей, грабежах и проч., так что индийским властям пришлось ограничить возможность переадресации непроверенных сообщений в WhatsApp. [10]
Инструментами распространения фейковых новостей, пропаганды и контрпропаганды стали популярные социальные сети (Facebook, Twitter). Недавний, 2019 года, пример фейк-новостей, размещенных в Фейсбук: видео, на котором человек в форме британского полицейского пробует белый порошок, вызвало бурную реакцию аудитории в «Фейсбука»; позже выяснилось, что видео-подделку распространили студенты Эдинбургского колледжа. Аналогичный дискредитирующий фейк-ролик разместили в российском фейсбуке под видом реального видео: актер театра «Современник» Д.Смолев зачем-то изобразил пьяного сотрудника дорожно-патрульной службы, вызвав возмущение пользователей, направленное на сотрудников ГИБДД. В обоих случаях за фейком явно стоит контрпропаганда, а не невинный скетч.
Социальные медиатехнологии расширяют пути распространения дезинформации, фейки и манипуляции продвигаются через рекламу, созданием мемов, видеороликов, бесплатного «вирусного» контента. Авторы доклада [11] из Оксфордского интернет-института отмечают: «в каждой стране есть хотя бы одна политическая партия или правительственное учреждение, которые используют социальные сети, чтобы формировать общественное мнение внутри страны».
Отдавая себе отчет о масштабе, скорости и силе негативного воздействия на экономику фейковых новостей, распространяемых через мессенджеры и соцсети, ряд американских интернет-компаний (Facebook, Twitter, Microsoft, Google, YouTube, Reddit) недавно заявил об объединении усилий в борьбе с фейками о COVID-19. [12] Понимая влияние соцсетей на коллективное сознание и поведение, в настоящее время практически все страны используют соцсети для воздействия на умы граждан, при этом стремясь контролировать аспекты работы соцсетей. Например, Китай, стремясь ограничить влияние западных инструментов пропаганды и уменьшить разрушительное влияние фейков, использует национальные социальные сети Weibo, WeChat, QQ, в т.ч. как средство пропаганды и контрпропаганды.
Соцсети и мессенджеры оказали значительное влияние на массовое поведение людей и стали поводом к принятию странами различных законов в области информационной безопасности. В мире и в России предпринимаются определенные усилия по контролю за информационной безопасностью в части пресечения фейк-новостей. Так, в России 29 марта 2019 г. в России вступили в силу законы 31-ФЗ и 27-ФЗ о запрете распространения фейковых новостей [13], Государственная Дума приняла 31 марта поправки об уголовном наказании для граждан за публичное распространение фейков в статьи 31 и 151 УПК РФ [14]. Подобные законы о запрете фейковых СМИ и фейковых новостей действуют [15] в Китае, Египте, Малайзии, Вьетнаме, Казахстане, Украине и др. государствах.
Обывателю как объекту фейк-атаки становится все сложнее понять в медиа-потоке, насколько то или иное сообщение правдиво; отличить качественный фейк от правдивой информации зачастую способны только опытные специалисты (в т.ч. специалисты в экономической и информационной безопасности), иногда – лишь с применением специальных программных средств анализа аудио и видео, нейросетевых технологий.
Выводы
Какие же признаки медиа-сообщения указывают на его фейковость?
- В аудио-фейке могут быть такие элементы манипуляции, как большая «эмоциональная заряженность», фразы об угрозе жизни и здоровью, о многочисленных жертвах и т.п.; доверительное обращение к человеку, призывы распространить сообщение среди широкой аудитории.
- Если фейк используется в соцсетях, то ему часто свойственен броский, кричащий заголовок и подзаголовок, в начало текста могут быть помещены правдивые данные, но далее идут сомнительные или ложные сведения «для веса», в расчете на то, что большинство читателей соцсетей не станут читать всё; при этом в конце публикации бывает вставлена кнопка автоматической рассылки или просьба об финансовой поддержке автора.
- Текстовому сетевому фейку нередко свойственна мнимая полезность (публикация содержит актуальные советы, которые зачастую бесполезны или вредны, но привлекают внимание сетевой аудитории),
- В публикации приведены фотографии для привлечения внимания, вроде бы имеющие отношение к тематике статьи, но заметно, что фотографии вырваны из контекста (не показана их связь с приводимыми в статье «фактами», не указаны источники, авторы, дата фотографии); при проверке браузерным «поиском по картинке»2 может выясниться, что фотография размещена на другом ресурсе и/или по совсем другому поводу. Для проверки того, имеет ли фото, используемое как иллюстрация-доказательство, отношение к материалу и не было ли оно отредактировано, рекомендуют [16] использовать программы типа JPEGsnoop, позволяющие посмотреть метаданные форматов JPEG, AVI, DNG, PDF, THM, а при недоступности метаданных фотографии — изучить само изображение (в кадр попадают детали, указывающие место и время снимка, страна, сезон, эмоции людей, др.), также можно проверить есть ли изображенные объекты на местности с помощью Google Maps, Panoramio и т.п.
- Признак фейковости статьи – отсутствие прямой ссылки на источник сведений или источник анонимный, или в качестве источника указан дискредитированный «желтый» ресурс, для которого типично размещение лживых и псевдо-сенсационных новостей.
- На фейковость может указывать использование в качестве источника новостей абстрактных фраз типа «Британские ученые установили», «в западной прессе», «неназванный источник». При этом фейк может быть подан как цитата, аудио-запись (как уже сказано, современные технологии позволяют синтезировать реалистичное голосовое сообщение любого рисунка и тембра), «автор» цитаты или речи названы в публикации так, что проверить его существование невозможно (например, «врач больницы города N-ска»;
- впрочем, автором цитаты в фейке может быть названо и вполне реальное и известное лицо, но сама фраза при этом может быть сказана по другому поводу и в другое время, либо вообще приписана ложно; примеры приписывания авторства известных личностей любым цитатам стало в последнее десятилетие массовым поветрием в соцсетях, чтобы придать мнимого веса и «доказательности» вбросу. — Желательно проверить поиском по серьезным ресурсам, принадлежит ли фраза медиа-персоне, и если да, то в каком контексте она была высказана. Так, есть сервисы, предназначенные для проверки информации о персонах по имени, сетевому нику, e-mail, телефону и городу или стране.
- Автор фейковой публикации тоже зачастую не указан, или автор указан, но его репутация уже «подмочена» фек-публикациями, либо автор – вымышленное лицо (это можно попытаться проверить по другим сетевым ресурсам);
- По замечанию M.D. Molina, S.S.Sundar и др. [17], признаками фейковых новостей являются также выраженная предвзятость, «убеждающий» стиль, сатирический тон изложения, броский, провокационный — «кликбейтный» — заголовок, гиперболизация в изложении, коллажи и «преобразованные» изображения и видео в качестве иллюстрации к содержанию т.д.
- Дипфейки сложны для распознания на «глазок» (для проверки фейковости видео или аудио могут применяться нейросетевые технологии). Обычному же пользователю рекомендуется включить наблюдательность: сомнительное видео, скорее всего, — deep fake, если глаза людей на видео не моргают (все время открыты или полузакрыты или направление взгляда неестественное, не изменяется); тени на изображении лежат неестественно или положение лица относительно источника освещения не меняется; имеются непонятные шлейфы вокруг контура головы при движениях, колебания освещенности и теней на лице, колебание четкости изображения и т.п. Но технологии постоянно совершенствуются, и фейки будут все более реалистичны.
Если речь идет о «конечном потребителе» медиа-контента, то ему остается пока руководствоваться логикой, опытом, здравым смыслом, чтобы оценить степень «фейковости» или правдивости текстового сообщения.
_________________
1 При этом один алгоритм генеративно-состязательной нейросети анализирует фото или видео человека и синтезирует на его основе изображение, состязаясь со вторым алгоритмом, пока тот не начнет путать копию и оригинал.
2 например, в Google Chrome можно для этого кликнуть по изображению правой кнопкой мыши и выбрать в меню пункт «Найти картинку google»
Читайте также
Библиографический список
- Миронова Н.Г. Об информационной безопасности в социокультурном контексте // Проблемы высшего образования и современные тенденции социогуманитарного знания (VIII Арсентьевские чтения): материалы Всероссийской науч. конф. с междунар. участием (Чебоксары, 31 дек. 2019 г.) / редкол.: О.Н. Широков [и др.] – Чебоксары: ИД «Среда», 2020. – С. 239-243. – URL: https://www.elibrary.ru/download/elibrary_42174989_96438729.pdf
- Сабатини Р. Жизнь Чезаре Борджа. — пер. с англ. А. Ю. Случевского. – М.: АСТ: Полиграфиздат, 2010. – 377 с.
- Нечаев С. Ю. Торквемада. – М.: Молодая гвардия. – 2010. – 293 с.
- Реунов Ю.С. Битва при Кадеше глазами египтян и хеттов // Исторические, философские, политические и юридические науки, культурология и искусствоведение. Вопросы теории и практики. – Тамбов: Грамота, 2014. № 5 (43): в 3-х ч. Ч. II. – C. 154-164. – URL: https://www.gramota.net/articles/issn_1997-292X_2014_5-2_43.pdf
- Петросян А. Э. В паутине Фамы (природа слухов, их распространение и социальный резонанс) // Вестник ОмГУ. 2008. № 3 (49). – С. 114-126. – URL: https://cyberleninka.ru/article/n/v-pautine-famy-priroda-sluhov-ih-rasprostranenie-i-sotsialnyy-rezonans (дата обращения: 12.02.2020).
- Will Knight, An AI that writes convincing prose risks mass-producing fake news. // MIT Technology Revue, Feb 14, 2019. – URL: https://www.technologyreview.com/s/612960/an-ai-tool-auto-generates-fake-news-bogus-tweets-and-plenty-of-gibberish
- Посыпкина А., Губенко А., Кирьянов Р. Компания Бекмамбетова начала «клонировать» голоса знаменитостей // Сайт РБК.ру. 29.10. 2019. – URL: https://www.rbc.ru/business/29/10/2019/5db6dc759a79476159856e01
- Cole Samantha, New Deepfake Method Can Put Words In Anyone’s Mouth // Tech by VICE 24.01.2020. – URL: https://www.vice.com/en_us/article/g5xvk7/researchers-created-a-way-to-make-realistic-deepfakes-from-audio-clips
- Meng Jing. China issues new rules to clamp down on deepfake technologies used to create and broadcast fake news (29.11.2019) // URL: https://www.scmp.com/tech/apps-social/article/3039978/china-issues-new-rules-clamp-down-deepfake-technologies-used
- Ермолин В. Все способы борьбы с фейками в России и за рубежом// Публикация ITAR-TASS. 21.12.2018. – URL: http://rapsinews.ru/incident_publication/20181221/292876054.html
- Bradshaw S., Philip N. Howard Global Inventory of Organised Social Media Manipulation. – URL: https://comprop.oii.ox.ac.uk/wp-content/uploads/sites/93/2019/09/CyberTroop-Report19.pdf
- Facebook, Microsoft и Twitter помогают разработчикам бороться с коронавирусом //Вести.ру. – 26 марта 2020. – URL: https://www.vesti.ru/doc.html?id=3251430
- Федеральный закон от 18.03.2019 № 31-ФЗ «О внесении изменений в статью 15-3 Федерального закона «Об информации, информационных технологиях и о защите информации»» – URL: http://publication.pravo.gov.ru/Document/View/0001201903180031
- Законопроект № 929651-7 «О внесении изменений в Уголовный кодекс Российской Федерации и статьи 31 и 151 Уголовно-процессуального кодекса Российской Федерации» (введен в действие 01.04.2020) // Система обеспечения законодательной деятельности Госдумы. – URL: https://sozd.duma.gov.ru/bill/929651-7
- Ермолин В. Все способы борьбы с фейками в России и за рубежом// Публикация ITAR-TASS. 21.12.2018. – URL: http://rapsinews.ru/incident_publication/20181221/292876054.html
- Морозова С. Как распознать фейк: пособие для журналистов и пользователей соцсетей // Сайт adindex.ru, 08.10 2015. – URL: ttps://adindex.ru/news/adyummy/2015/10/8/128695.phtml
- Maria D. Molina, S. Shyam Sundar, Thai Le, Dongwon Lee «Fake News» Is Not Simply False Information: A Concept Explication and Taxonomy of Online Content. // American Behavioral Scientist. – October 14, 2019. – URL: https://journals.sagepub.com/doi/pdf/10.1177/0002764219878224
References
- Mironova N.G. On information security in a sociocultural context [Ob informatsionnoy bezopasnosti v sotsiokul’turnom kontekste]// Problems of Higher Education and Current Trends in Socio-Humanitarian Knowledge (VIII Arsentiev Readings): Materials of the All-Russian Scientific. conf. from the international participation (Cheboksary, Dec 31, 2019) / editorial: O.N. Shirokov [et al.] – Cheboksary: Publishing House “Wednesday”, 2020. – S. 239-243. – URL: https://www.elibrary.ru/download/elibrary_42174989_96438729.pdf
- Sabatini R. Life of Cesare Borgia [Zhizn’ Chezare Bordzha]. – Per. from English A. Yu. Sluchevsky. – M .: AST: Polygraphizdat, 2010 .– 377 p.
- Nechayev S. YU. Torkvemada [Torkvemada]. – M .: The Young Guard. – 2010 .– 293 p.
- Reunov YU.S. The Battle of Kadesh through the eyes of the Egyptians and the Hittites [Bitva pri Kadeshe glazami yegiptyan i khettov]// Historical, philosophical, political and legal sciences, cultural studies and art history. Questions of theory and practice. – Tambov: Diploma, 2014. No. 5 (43): in the 3rd part of Part II. – C. 154-164. – URL: https://www.gramota.net/articles/issn_1997-292X_2014_5-2_43.pdf
- Petrosyan A. E. On the Web of Famas (the nature of rumors, their distribution and social resonance) [V pautine Famy (priroda slukhov, ikh rasprostraneniye i sotsial’nyy rezonans)]// Bulletin of Omsk State University. 2008. No. 3 (49). – S. 114-126. – URL: https://cyberleninka.ru/article/n/v-pautine-famy-priroda-sluhov-ih-rasprostranenie-i-sotsialnyy-rezonans (accessed: 02/12/2020).
- Will Knight, An AI that writes convincing prose risks mass-producing fake news. // MIT Technology Revue, Feb 14, 2019. – URL: https://www.technologyreview.com/s/612960/an-ai-tool-auto-generates-fake-news-bogus-tweets-and-plenty- of-gibberish
- Posypkina A., Gubenko A., Kir’yanov R. Bekmambetov’s company began to “clone” the voices of celebrities [Kompaniya Bekmambetova nachala «klonirovat’» golosa znamenitostey]// RBC.ru website. 10/29. 2019.- URL: https://www.rbc.ru/business/29/10/2019/5db6dc759a79476159856e01
- Cole Samantha, New Deepfake Method Can Put Words In Anyone’s Mouth // Tech by VICE 01/24/2020. – URL: https://www.vice.com/en_us/article/g5xvk7/researchers-created-a-way-to-make-realistic-deepfakes-from-audio-clips
- Meng Jing. China issues new rules to clamp down on deepfake technologies used to create and broadcast fake news (11.29.2019) // URL: https://www.scmp.com/tech/apps-social/article/3039978/china-issues- new-rules-clamp-down-deepfake-technologies-used
- Yermolin V. All methods of dealing with fakes in Russia and abroad [Vse sposoby bor’by s feykami v Rossii i za rubezhom]// Publication ITAR-TASS. 12/21/2018. – URL: http://rapsinews.ru/incident_publication/20181221/292876054.html
- Bradshaw S., Philip N. Howard Global Inventory of Organized Social Media Manipulation. – URL: https://comprop.oii.ox.ac.uk/wp-content/uploads/sites/93/2019/09/CyberTroop-Report19.pdf
- Facebook, Microsoft and Twitter help developers fight the coronavirus // Vesti.ru. – March 26, 2020. – URL: https://www.vesti.ru/doc.html?id=3251430
- Federal Law of March 18, 2019 No. 31-ФЗ “On Amending Article 15-3 of the Federal Law“ On Information, Information Technologies and the Protection of Information ”” [O vnesenii izmeneniy v stat’yu 15-3 Federal’nogo zakona «Ob informatsii, informatsionnykh tekhnologiyakh i o zashchite informatsii»] – URL: http://publication.pravo.gov.ru/ Document / View / 0001201903180031
- Bill No. 929651-7 “On Amendments to the Criminal Code of the Russian Federation and Articles 31 and 151 of the Code of Criminal Procedure of the Russian Federation” (entered into force on 04/01/2020) [O vnesenii izmeneniy v Ugolovnyy kodeks Rossiyskoy Federatsii i stat’i 31 i 151 Ugolovno-protsessual’nogo kodeksa Rossiyskoy Federatsii]// The State Duma legislative support system. – URL: https://sozd.duma.gov.ru/bill/929651-7
- Yermolin V. All methods of dealing with fakes in Russia and abroad [Vse sposoby bor’by s feykami v Rossii i za rubezhom]// Publication ITAR-TASS. 12/21/2018. – URL: http://rapsinews.ru/incident_publication/20181221/292876054.html
- Morozova S. How to recognize a fake: a guide for journalists and users of social networks [Kak raspoznat’ feyk: posobiye dlya zhurnalistov i pol’zovateley sotssetey]// Website adindex.ru, 08.10.2015. – URL: 16.ttps: //adindex.ru/news/adyummy/2015/10/8/128695.phtml
- Maria D. Molina, S. Shyam Sundar, Thai Le, Dongwon Lee “Fake News” Is Not Simply False Information: A Concept Explication and Taxonomy of Online Content. // American Behavioral Scientist. – October 14, 2019. – URL: https://journals.sagepub.com/doi/pdf/10.1177/0002764219878224