Интернет накрывает цунами дезинформации. Как ее распознать родителям и детям?
М. Баченина:
- Здравствуйте, друзья. Это «Родительский вопрос». У микрофона Мария Баченина и Александр Милкус.
А. Милкус:
- Добрый день.
М. Баченина:
- Сегодня у нас в гостях начальник аналитического отдела Управления по противодействию недостоверной информации АНО «Диалог Регионы» Сергей Маклаков.
С. Маклаков:
- Приветствую.
А. Милкус:
- На прошедшей неделе прошел очень важный, своевременный, а, может быть, даже немножко запоздавший форум про фейки, которые навалились на нас, я это называю «информационное цунами». Я был на этом форуме, много чего интересного для себя собрал. Учитывая, что я готовлю серию лекций для медиапедагогов именно по искажению информации, по дипфейкам, для меня это было очень важно и интересно. На эту тему сегодня надо говорить очень много и с родителями, и с детишками, и со школьными учителями. Поэтому мы Сергея пригласили на программу.
М. Баченина:
- Начнем с того, что такое дипфейк. Глубокое вранье.
А. Милкус:
- Будем пытать Сергея с применением разных средств связи. Когда я готовился к своим лекциям, понял, что даже определение фейка в последние годы трансформировалось. Что сейчас надо понимать под этим словом? И нужно ли именно это слово использовать, а не слово «дезинформация»?
С. Маклаков:
- Изначально дипфейк – это deep learning fake, то есть недостоверная информация, которая была подготовлена с использованием глубокого обучения, нейросетей, искусственного интеллекта. Под этим можно понимать любой материал, будь то текстовый, визуальный или аудиовизуальный, или просто аудио, который был подготовлен при участии, при помощи нейросетей. В таком широком общественном понимании дипфейки закрепились как исключительно, скорее, материалы, когда лицо человека заменяется на какое-то целевое, какого-то конкретного персонажа. И по большей части сейчас под дипфейками понимаются именно визуальные материалы, когда заменяется лицо.
Мы в этой парадигме и живем, дипфейками называем те материалы, которые сгенерированы для того, чтобы поменять лицо одного человека на другое. Есть несколько подвидов. Полностью синтезированные ролики, когда заменяется маска, еще ряд других категорий. С аудио мы называем это спуфинг голоса, когда синтезируется аудиодорожка. И отдельно есть генерация текста. Есть комбинированные форматы. Вопрос интересный и сложный. Мы проводим регулярно социологию в целом по фейкам раз в квартал. И в этом году добавили значительный блок в опросник по дипфейкам, чтобы понять, как люди реагируют на это понятие, понимают ли они, что имеется в виду под дипфейком. И на конец года выяснили, что всего 37% пользователей знают или что-то слышали о том, что такое дипфейк. Из них 81% правильно дают определение. Итоговый процент, конечно же, ниже. Но в течение этого года, когда мы проводили замеры, показатели росли. И это тоже очень важный момент. Потому что, чтобы бороться с каким-то явлением, нужно понимать, что это такое. Когда мы заявляем, что тот или иной материал является дипфейком, исходя из этой статистики, нам нужно еще и сопровождать опровержение пояснением, а что это такое. Что такое дипфейк, что значит нейросети, как они что-то генерируют. Чтобы картина складывалась полностью, опровержение было понятным и доступным для аудитории.
А. Милкус:
- С развитием нейросетей, а это сейчас взрывная история, на форуме об этом говорилось, количество неправдивой, лживой информации, особенно в интернете, просто растет лавинообразно. В 2017 году, всего пять лет назад, журнал Science сделал фейкньюс главной темой выпуска, собрали 126 тысяч фальшивых новостей, которые распространялись в Twitter, который у нас заблокирован. Даже тогда ученые уже сделали вывод, что ложь становится более популярной и быстрее распространяется среди пользователей, чем правда. И ее количество возрастает в невероятных объемах. А сейчас можно, условно, за один доллар получить картинку, где вы не отличите на первый взгляд без профессионала, чье там лицо, чья походка, чей голос, мы вообще попадаем в полное искажение реальности. И что с этим делать – не очень понятно. К примеру, «Аватар» - это дипфейк, потому что там не настоящие люди действуют, а на которых наложили специальные маски.
М. Баченина:
- Вы смазываете картину, приводя в пример игровые моменты, как тот же «Аватар». Здесь нужно немножко пугать. Если я включаю интернет, захожу на какой-то сайт, а там сидит одно из первых лиц государства и говорит что-то, чего на самом деле нет, нейросеть создала лицо этого человека, сгенерировала его голос, и вот он толкает какое-то вранье, дезинформацию в эфир. А все это слушают и, не понимая, что это дипфейк, верят, и начинаются какие-то хождения, брожения, в зависимости от цели, которую ставили себе создатели этого дипфейка. Я верно поняла? Или это я демонизировала что-то?
С. Маклаков:
- В целом все правильно. Приведенный пример будет являться дипфейком, который при этом еще и социально значимый, может повлечь за собой существенные последствия за счет расхождения, паники и необдуманных реакций, которые он может вызвать у аудитории. Вместе с тем, демонизировать в целом это тоже не нужно. Потому что это направление – скорее, инструмент для создания новых форм контента. И цели использования этого контента могут быть разные. Прежде всего, это довольно прорывная и перспективная технология, которая может создавать многогранный контент: художественный, развлекательный, научный. Есть серия видеороликов, где известные актеры проводят лекции на разных языках, перевод изображение, под строение артикуляции было сделано с помощью нейросетей. Это тоже довольно интересно, занимательно. Есть множество интересных проектов по созданию дипфейков и в российских медиа.
Есть Agenda Media Group, которые профессионально занимаются созданием сериалов и вертикальных видео с помощью технологии дипфейк. Они называют ее Reface, чтобы негативную коннотацию, которая есть у слова «дипфейк», немножко смягчить. Но в целом изначально дипфейк – это просто технология. Как десятки лет назад появился кинематограф, так же сейчас мы можем говорить о том, что есть такая технология, которая позволяет делать много всего. Как кинематограф и монтаж видео может использоваться в злонамеренных целях, в целях дезинформации, так же и эта технология может создаваться для таких примеров, как вы точно описали.
М. Баченина:
- Со злым умыслом и в художественных целях. Я боюсь наших слушателей отпугнуть таким количеством англицизмов. Призываю вас все объяснять, чтобы человек понимал.
А. Милкус:
- Поэтому я и начал с того, что хорошо бы уйти от слова дипфейк как технологии. И поговорить про дикое количество дезинформации, которая распространяется в интернете с использованием новых технологий. Сейчас столько дезинформации, которая упакована настолько красиво и профессионально, что ее никогда в таком количестве не было. Что с этим делать? Как на это не попасться? Нам всем звонят из так называемой «службы безопасности банка». Эти ребята в ближайшее время будут использовать технологию замены голоса. И мне может звонить не какой-то неизвестный полковник из Сбербанка, а сын, который попал в сложную ситуацию, его голосом будут рассказывать. Это фейк. Его голосом меня будут выводить на то, чтобы я им деньги отдал.
А. Милкус:
- Напомню, что статистика говорит о том, что 70% попадающей в интернет информации имеет признаки дезинформации. Люди, вдумайтесь, пожалуйста!
С. Маклаков:
- Да, все верно. А еще через несколько лет к голосу будет добавляться еще и видео и вы будете по какому-то колчату видеть и полностью изображение, очень достоверно сгенерированное, вашего родственника, который может попросить одолжить какую-то сумму или сделать какие-то определенные иные действия. Естественно, все это фейк, используемый в мошеннических целях. Вообще, цели фейков, дезинформации можно разделить на несколько основных категорий и как раз вот мошенничество – это одно из таких ключевых направлений, в которых используется дезинформация. Действительно, все так. Вы приводили статистику, что в 2017 году в Твиттере было выявлено сто с чем-то тысяч, на самом деле бум интереса к фейкам и самих фейков превзошел в 2016 году. Как мы помним, тогда на западе был ряд важных геополитических событий – это выборы президента США и брекзит. И оба эти мероприятия сопровождались определенным огромным количеством фейковой информации. И до сих пор идут споры, насколько сильно это все повлияло, но, тем не менее. У нас так же проблема фейков остро встала во времена пандемии коронавируса. Мы все помним, какое огромное количество фейков, и тода казалось, что фейков уже больше быть просто не может, что все пространство информационное заполнено этими фейками вакцинальными коронавируса. Но, по нашей статистике, которую мы с 2020 года ведем, как раз был сформирован информационный центр по мониторингу ситуации с коронавирусом, в рамках которого боролись с коронавирусными фейками, а впоследствии мы начали заниматься всеми фейками, по всем темам. Можно сказать, что в 2023 году количество фейков выросло в 8 раз по сравнению с 2021 годом.
А. Милкус:
- Это только в Рунете?
С. Маклаков:
- Только Рунет, только русскоязычный сегмент российских соцсетей, да. Соцсетей всех, но русскоязычный сегмент. Соответственно, в 8 раз выросло количество фейков и это уже даже не сотни тысяч, которые в Твиттере были выявлены в 2017 году, а это уже миллионы и десятки миллионов. То есть, к концу 2023 года мы прогнозируем, что будет порядка 12,5 миллионов копий фейков в российском сегменте. На данный момент уже более 11 миллионов мы зафиксировали. И вот спрогнозировали за оставшийся месяц – я думаю, этот прогноз довольно точный будет, потому что не так много времени осталось, но объем дезинформации он поражает и, что самое интересное, он продолжает расти год от года. Рост был и в прошлом году, и в этом году, и мы прогнозируем, что следующий год нас тоже удивит. Будет и президентская кампания – выборы в марте, и в целом ряд трендов, которые мы видим и по теме государственной безопасности, и по теме социально-экономической стабильности они сохраняются, и происходит рост фейков в этих категориях, поэтому ориентировочно мы ожидаем, что в следующем году рост произойдет до 15 уже миллионов фейков.
А. Милкус:
- А какие основные темы, на которые мы получаем дезинформацию? Политика, экономика?
С. Маклаков:
- Политика, госбезопасность, здравоохранение. Очень много фейков сопровождают чрезвычайные происшествия. И это объяснимо. С одной стороны, любое ЧП, которое происходит, оно сопровождается некоторым периодом информационного вакуума, когда еще собираются официальные данные, когда их нет, и это такая благотворная почва и для вирального распространения фейков в виде появления слухов, домыслов, пересказаний, иносказаний, и в виде того, чтобы еще и подбрасывать что-то со стороны недоброжелателей. Различные инсинуации проводятся. Любое чрезвычайное происшествие, любое бытовое происшествие, которое происходит в России, как правило, сопровождается в последние годы дополнительным вбросом фейковых сообщений.
М. Баченина:
- А зачем это? Я понимаю – расшатать ситуацию, деньги отобрать. А чрезвычайное-то зачем? Случилась трагедия, ЧП – и я преувеличиваю или преуменьшаю последствия, заявления какие-то делаю от лица властей или от лица кого-то… А смысл, цель какая? Мотив?
С. Маклаков:
- Цели классические. С одной стороны, это увеличение аудитории, то есть, некоторые ресурсы – те, которые не являются официальными, которые не несут ответственность, они на этих горячих темах зарабатывают себе аудиторию, хотя эффект от этого сомнительный и временный. С другой стороны, повышение тревожности и паники – это прямые задачи фейков и на таких темах легче всего эксплуатировать, потому что чрезвычайные происшествия, особенно которые сопровождаются каким-то количеством жертв, это всегда эмоциональный отклик у аудитории, это повышение запроса к властям и на оперативную информацию, и на решение каких-то острых социальных проблем, и подогревание этих тем как бы…
А. Милкус:
- А производители этой дезинформации – это профессиональные люди, это какие-то компании? Это по незнанию, по глупости? Вот чего больше?
С. Маклаков:
- В целом, да, действительно, чтобы понимать, как бороться с фейкам, нужно знать, кто их делает. И мы производителей делим на две условные категории. Те, кто делает фейки преднамеренно и непреднамеренно. К преднамеренным можно отнести различные политические организации, деструктивные, запрещенные организации, иностранные источники с целью влияния в рамках современных информационных войн. И что важно отметить, действительно, существуют профессиональные объединения, организации, которые на безвозмездной основе занимаются производством и распространением фейков и дезинформации. Это ботофермы, криофермы. Одни создают контент, заготавливают, продумывают контентный план, как распространять эти заготовки, другие же используют различные средства автоматической доставки, рекламный механизм, для того, чтобы этот контент продвигать. И можно сказать, что в наше время в последние несколько лет профессия создателя и распространителя дезинформации действительно стала профессией, которая оплачивается и большое количество людей задействованы в этом.
А. Милкус:
- Хорошо. Но вот как отличить фейк от не фейка? Кажется, что все правда. Помните знаменитую историю с Папой Римским, фотография которого появилась в Сети, где он был в дорогущем каком-то пуховике – ну, не придерешься. А потом оказалось, что это нарисовала нейросеть Midjourney. Честно, я бы в жизни не сомневался. Ну, почему Папа не может в пуховике дорогом быть?
М. Баченина:
- Вы серьезно, Саша? (Смеется). Папа? Почему на тебе пуховик?
А. Милкус:
- Потому что холодно в Риме…
И вот таких историй можно привести за этот год десятки. Вот как нам, обычным потребителям, быть?
С. Маклаков:
- Кстати, вместе с этими фотографиями, о которых вы говорите, с Папой Римским, одновременно распространялись еще фотографии Дональда Трампа в оранжевой тюремной форме, что он якобы тоже арестован и уже сидит за решеткой. Тоже подготовленный нейросетью Midjourney. Тут правила довольно простые. В данном случае не требуется даже каких-то супертехнических средств для профессионалов в области фотошопа и нейросетей, которые могут рассмотреть эти фотографии под микроскопом и дать экспертное заключение. Тут действуют в данном случае базовые правила фактчекинга и критического мышления. Это анализ и поиск первоисточника. Если бы нашли первое вхождение, а, если не ошибаюсь, они были в аккаунте в Твиттер этих фотографий – там сам автор указывает, что это все подготовлено нейросетью. Распространение виральное и оно уже пошло без этой приписки, поэтому многих ввело в заблуждение. Зачастую, если поиск и анализ первоисточника не отвечает на вопросы верификации, то хотя бы позволяет построить правильные гипотезы, которые можно проверить с помощью открытых данных и инструментов фактчекинга и OSINTа. OSINT – это разведка на основе открытых данных – то, к чему прибегают множество компаний и даже военных разведок в современном мире – и она доступна фактически любому пользователю, у которого есть два основных навыка. Это умение пользоваться информацией и открытыми источниками, и внимательность к деталям. Соответственно, дальше эти все фотографии, которые мы обсуждаем, точно так же можно было разобрать, посмотреть, обратиться к авторитетным официальным источникам, которые публиковали распорядок дня, какие-то официальные фотографии, и понять, что никаких пересечений этих сгенерированной фотографий с реальностью на самом деле не было. И собрав все эти доказательства, можно понять, что все это ложь и неправда и изначально было даже шуткой.
На самом деле, очень схож алгоритм от этого распространения этих фотографий с тем, как несколько лет назад, да и сейчас иногда это бывает, распространялись новости, подготовленные сатирическими изданиями. Есть несколько и российских сатирических изданий известных, и зарубежных, которые каждый день публикуют шутки и прямо говорят о том, что это шутки, пишут большими буквами о том, что это все сатира, гротеск и вымысел, тем не менее, многие пропускают эту информацию и берут за чистую монету и распространяют уже сатирические издания под видом дезинформации.
А. Милкус:
- Нет, Сергей, вы меня абсолютно не убедили. Давайте вернем к фотографии Папы в пуховике. У меня очень мало времени, я не специалист по проверке данных, у меня это отложилось где-то в подкорке, что вот Папа шикует и поехало дальше… Вот вы говорите – проверить, с чего все началось. А как я это могу проверить? Есть какой-то сайт? Но я не буду рыться в интернете, у меня нет времени, я листаю дальше новости, пока еду на работу.
С. Маклаков:
- Да, вы правильно говорите насчет не хватает времени. Действительно, листая свою ленту, проверять каждую новость на достоверность – это можно вообще из дома не выходить, а только этим и заниматься. Есть несколько рекомендаций на этот счет. Во-первых, нужно для себя понимать, что есть категория информации, которую стоит проверять. И если она вызывает у вас какой-то сильный эмоциональный отклик и может повлиять на ваши взаимоотношения с окружением, на ваши политические, моральные, религиозные воззрения…
М. Баченина:
- …или вас могут посадить, как журналистов сейчас.
С. Маклаков:
- Да. Очевидно, что нужно остановиться, сделать вдох/выдох и попытаться все это проверить. Для остальных случаев я готов порекомендовать сервис, который запустил АНО «Диалог Регионы» - это сервис «Лапша Медиа», в рамках него в социальных сетях и на сайте публикуются проверки и опровержения наиболее интересных и социально значимых фейков. Кроме того, действуют чатботы ВКонтакте, в Одноклассниках и в мессенджерах, на которые может написать любой пользователь с просьбой проверить информацию. У нас внутренний такой ключевой показатель эффективности стоит 24 часа на ответ, в рамках которых наши эксперты, OSINTеры, фактчекеры, а так же партнеры – крупные федеральные и региональные издания, а так же экспертные сообщества в лице высших учебных заведений, проверяют эту информацию по запросам пользователей, готовят разборы, заключения и в течение этого времени, которое я обозначил, возвращают обратно. Это экономит время, позволяет собрать всю эту фактуру – первоисточник, выводы, тезисы, экспертную оценку – в сжатые сроки получить ее и уже понимать любому пользователю: фейк перед ним или достоверная информация.
А. Милкус:
- То есть, если меня задела какая-то информация, если я сомневаюсь в ней, я могу отправить ссылку, допустим, в Telegram или ВКонтакте «Лапша Медиа» и сказать – товарищи дорогие, проверьте. И у вас 24 часа на это?
С. Маклаков:
- Да, все так. Можно даже построже немножко написать. И тогда 24 часа превратятся в 12.
М. Баченина:
- Подождите, а есть ли какие-то исторические примеры, когда дипфейк сыграл серьезно или безобидно? Вот так, чтобы люди поняли, какие могут быть эффекты.
С. Маклаков:
- На самом деле, да. Вот из свежего хочется упомянуть несколько таких примеров. В Индии, например, распространилась рекламная компания зубной пасты, в которой участвовал Том Хэнкс, актер известный, хотя он в действительности там не участвовал. Он был очень эмоционально разозлен, судя по его реакции, и публично несколько раз опровергал все свое отношение, но только вот мне интересно, не являлось ли и это частью маркетинговой компании?
А. Милкус:
- Подождите, вот реклама сотовой связи, в которой якобы снимался Брюс Уиллис, который не снимался…
М. Баченина:
- А он не снимался?
А. Милкус:
- Конечно, нет.
М. Баченина:
- Подождите, я не шучу! Я думала, они его купили.
А. Милкус:
- Нет, это дипфейк был.
М. Баченина:
- Уже тогда?
А. Милкус:
- Это как раз классика вот этой всей истории. Конечно.
С. Маклаков:
- Это два года назад, по-моему… У них, кстати, все было в правовом поле, насколько я знаю. Использование образа было правомочно и согласовано. Но это как бы тоже дискуссионный вопрос – насколько это правомерно, этично и т.д., нов данном случае все было организовано. На самом деле, я думаю, что в будущем мы таких реклам будем встречать все чаще и чаще, и это абсолютно нормально. Единственное, что для этого требуется своевременное изменение в законах, законодательное регулирование, которое позволяет все это проводить в рамках правового поля. Возможно, вопрос маркировки контента или предупреждение пользователей о том, что этот актер на самом деле здесь в цифровой версии.
М. Баченина:
- Но тогда это не будет играть – это скучно… Вот я тоже не поняла, как теперь ГИБДД начали предупреждать, что скоро будет камера. Мне-то это на руку, но между камерами злоумышленник нарушает, да.
А. Милкус:
- А между камерами другая камера!
Вот правильно Сергей говорит… я хочу добавить… буквально вот новость прошлых двух недель. Скарлетт Йоханссон подала на компанию, которая в рекламе некоего приложения использовала ее голос. Он полностью воспроизведен и тут возникает проблема прав. Вот ты имеешь право на свой голос или на свое изображение… И вот классическая история 1999 года, нет, 2008 года, как некий врач ЭндрюУилкфилд сообщил в престижном журнале «Ланцет», о том, что прививки от кори вызывают аутизм и т.д. Люди перестали прививаться и, естественно, люди стали умирать. А потом выяснилось, что этот товарищ дорогой был соучредителем компании, которая разрабатывала тесты на корь и он планировал вот этой ложью своей заработать миллионы евро.
С. Маклаков:
- Но тут еще важное уточнение. Если не ошибаюсь, в данном случае это была не совсем публикация в «Ланцете», это был предпринт, который еще не проходил полностью модерацию. Они действительно могут там размещаться, но после того, как журнал провел проверки и т.д., они эту публикацию сняли.
А. Милкус:
- Но волна уже пошла.
С. Маклаков:
- Да, не все в этом разобрались. Есть сайт «Ланцет» и в нем есть такие слова, такой текст и вроде бы все один к одному сходится. Да, действительно так.
А. Милкус:
- Скажите, а что за сервис «Зефир»?
С.Маклаков:
- Мы начали со статистики, что 12,5 миллиона копий, будет 15 в следующем году, но очевидно, что ручная работа, ручное перебирание всех этих миллионов ссылок просто невозможно – потребуются десятки, сотни и тысячи даже, наверное, людей, которые будут заниматься разгребанием всех этих фейков. И мы, естественно, это понимая, ведем работу по разработке специального программного обеспечения, которое помогает нам все это систематизировать, маршрутизировать, обрабатывать, собирать и т.д. И одной из таких программ является система мониторинга «Зефир», она позволяет нам выявлять, мониторить аудиовизуальные материалы на основе транскрибации, а так же выявлять различного рода дипфейки, посредством использования искусственного интеллекта и нейросетевых моделей. Собственно, это та система, с помощью которой мы в автоматическом режиме, в режиме реального времени мониторим огромное количество ресурсов и выявляем дипфейки, спуфинг голоса и прочие характеристики вмешательства в видео и в звук на различных материалах. И есть несколько примеров того, как в течение этого года мы успешно и оперативно выявили довольно существенные дипфейки и вместе с нашими партнерами их опровергали в СМИ и в соцсетях.
А. Милкус:
- Но это вы сами делаете или я, столкнувшись с каким-то подозрительным материалом, текстом, могу вам отправить их и сказать – пропустите через «Зефир» и скажите мне – правда это или неправда?
С. Маклаков:
- Да, вы абсолютно точно можете их отправить через чатбот и «Лапша Медиа», мы их получим, проанализируем, подготовим экспертное заключение и направим обратную связь, сказав, является ли этот материал достоверным или нет. Все так именно и работает.
А. Милкус:
- Мы говорим о том, какие есть технологии, как проверить то, что вам вешают на уши.
М. Баченина:
- Идет ли все к тому, чтобы не столь трудно было различать дипфейки? Или это не нужно? Я только сейчас узнала, что можно куда-то написать и попросить. Но все равно конструкция остается достаточно сложной. Учитывая, что половина людей все равно этого не узнает, то еще уже коридор событий получается. Можно ли избавиться от дипфейков? Или у них есть еще какая-то положительная сторона?
А. Милкус:
- Меня волнует та информация, которая поступает в семьи, которой пользуются дети. Я много встречаюсь с учениками старших классов. У нас идет проект «Медиакласс в московской школе». Большинство ребят, когда я их спрашиваю, где они берут информацию, говорят: у блогеров. Что они там им рассказывают про жизнь, какой информацией они пользуются, как они детьми манипулируют? Может быть, этими блогерами манипулируют, я не знаю. На мой взгляд, это очень серьезная история. Сергей говорит, что количество дезинформации все больше растет. И наши дети получают информацию неизвестно из каких источников. Я бы часть источников назвал точно мусорными.
С. Маклаков:
- Это действительно большая проблема – понимать, какие категории, особенно дети и подростки, которые наиболее подвержены влиянию, как правило, как им обезопаситься, как их обезопасить. Это довольно сложный и конструктивный вопрос. Но любая схема противодействия, защиты от фейков должна включать абсолютно всех акторов и все направления. И государство с законодательным регулированием, и глобальные цифровые платформы, социальные сети, которые понимают, как их алгоритмы и контент влияют, и медиасферу – СМИ, блогеров, новые медиа. Если у СМИ есть определенная законодательная ответственность, понимание у большинства журналистов, редакторов, что они несут не только юридическую ответственность, но и социальную перед своей аудиторией, а мы знаем массу примеров, когда даже незначительный глупый фейк мог повлечь плачевные последствия, вплоть до летальных исходов. Если это понимание придет еще к блогосфере, к новым медиа, это тоже будет существенный успех в развитии это системы безопасности.
Важно понимать, что в некотором плане спасение утопающих – дело рук самих утопающих. Нужно, чтобы все категории – и дети, и взрослые, и люди в возрасте – умели проверять информацию, обладали навыками критического мышления и медиаграмотностью на том уровне, который требуется именно сейчас. А это очень динамическая история, на протяжении всей жизни нужно развивать эти компетенции. Эти навыки уже являются обязательными, как и навык оказания первой помощи, умение водить автомобиль. Без этого просто невозможно. Потому что дезинформация может существенно повлиять на жизнь, сменить политические, моральные предпочтения, поссорить с друзьями, близкими. Последствия могут быть колоссальными.
В этом плане нужно всем этим категориям помогать, дать возможность обучаться. Важно это делать с самого раннего возраста, со школы. Уже сейчас многие вузы, точно знаю, что в ВШЭ в рамках медиакоммуникации, в рамках дополнительного профессионального образования есть курсы по фактчекингу. Эту практику нужно масштабировать и на другие вузы, и на другие факультеты. Это навыки, которые нужны не только журналистам и тем, кто занимается медиакоммуникациями. И масштабировать, в том числе, и на школьное образование.
Для того, чтобы обезопасить детей, нам нужно еще и работать со взрослыми. В рамках работы с фейками я ни разу не видел, чтобы третьеклассник пошел снимать в очередь все свои накопления из-за каких-то сообщений или стоял и скупал гречку мешками. Если у нас родители подвержены влиянию фейков, распространяют панические слухи и принимают необдуманные решения, то вопрос – как они смогут научить, наставить своих детей не реагировать, не поддаваться влиянию дезинформации. Вопрос очень сложный, комплексный, к нему нужно подходить со всех сторон.
А. Милкус:
- Меня на форуме зацепила мысль, было предложение о том, чтобы источники информации – платформы, Telegram-каналы – маркировать. Если ты публикуешь проверенную информацию, вот тебе знак качество, звездочка. Если Telegram-канал борется за своих читателей, он будет доказывать, что использует проверенную информацию. Как вы к этой идее относитесь?
С. Маклаков:
- Концептуально это очень интересная история. Если мы будем получать какие-то доверенные источники и иметь систему маркировки, это неплохо. Вопрос – реализация этой истории, кто будет цензором. Вернее, более точное слово – кто будет тем актором, который проверяет всю информацию, который дает это заключение. Сколько информации он должен проверить? Очень много сложных технических, организационных вопросов, которые могут привести нас к совершенно не тем итогам, которые мы с вами подразумеваем и хотим.
На мой взгляд, важнее и надежнее даже выстроить систему просвещения и образования различных категорий граждан, дать им возможность самим проверять, помогать им в опровержении и развивать, формировать навыки фактчекинга. Причем на эту историю тоже можно взглянуть с двух сторон. С одной стороны, это и то, что поможет всегда в жизни, с другой стороны, это уже и профессиональная компетенция. Многие издания уже имеют в своем штате должности фактчекеров. Многие компании нанимают себе фактчекеров, осинтеров, которые занимаются разведкой на основе открытых данных. И спрос на это есть, он растет. Поэтому тут можно совместить приятное с полезным. И обезопасить себя от фейков, и найти еще какое-то призвание.
М. Баченина:
- Мне все равно тревожно. Мне пока своим детям передавать нечего. Могу привести яркий пример своей мамы, которая мне звонит совсем недавно и спрашивает: «Маша, как вы себя чувствуете? У вас же взрыв там». Я даже перепроверила, думая, что могла что-то пропустить. Я ее спросила: «Где ты берешь эту чепушатину?» Она ответила – в новостной ленте на телефоне.
А. Милкус:
- Они привыкли, что все, что показывается на ленте, это правда. Поэтому с ними очень тяжело разговаривать.
С. Маклаков:
- Это очень понятный механизм, как это происходит. Любая платформа, любой новостной агрегатор, лента, социальная сеть ставит главной целью, чтобы пользователь как можно дольше оставался на ней. Для этого разработаны и внедрены почти во всех социальных сетях и подобных платформах новостные алгоритмы, которые являются рекомендательными сервисами и предлагают определенные новости. Фейки эмоциональные, более интересные, набирают большее количество откликов, реакций, комментариев, лайков, репостов. С одной стороны, алгоритмы могут создавать вокруг нас такое информационное пространство. С другой стороны, на это все влияют действия пользователей. Чем чаще пользователи проявляют интерес к фейковой новости, тем выше вероятность того, что алгоритм снова подсунет такой же контент. Поэтому важно развивать критическое мышление, медиаграмотность и навыки работы с информацией, чтобы своими действиями вокруг себя не создавать эхо-камеры, которые будут наполнять наше информационное пространство, нашу так называемую ленту все новыми и новыми фейками.
Нельзя говорить, что тут алгоритмы – исключительно зло, они работают вкупе именно с активностью аудитории. Но именно так это и работает. И нужно понимать, какой информацией мы делимся, зачем мы ею делимся, как обезопасить себя от всего этого.
М. Баченина:
- Спасибо!
А. Милкус:
- Главный посыл, о котором нужно рассказать родителям, бабушкам-дедушкам, всем остальным, - не все, что в ленте, правда. Сомневайся, включай голову.
Подписывайтесь на новые выпуски и слушайте, когда удобно.