Interfax-Russia.ru — Самарские ученые разрабатывают первый в России сканер видеофейков. Ранее они уже создали программный продукт, который позволяет проверить достоверность любого изображения.
Созданием веб-сервиса для проверки подлинности цифрового фотоснимка или видеоролика занимаются ученые Самарского национального исследовательского университета имени академика С.П.Королева. Программный комплекс, использующий алгоритмы обнаружения искажений, позволит автоматически выявлять следы внесенных в цифровое изображение или видеоряд изменений и определит степень достоверности предложенного к анализу цифрового материала.
По мнению доцента кафедры геоинформатики и информационной безопасности университета Андрея Кузнецова, такой веб-сервис будет полезен людям, которые работают постоянно с большими объемами видеоданных, например, журналистам.
"Подобного проекта в России еще нет. Чтобы человек мог быстро просканировать видео, полученное, к примеру, из недостоверного источника (…) Можно сказать, что наш проект — это попытка соблюдения своего рода информационной гигиены в интернете", — отмечает ученый.
По его словам, по сути, разрабатывается инструмент для борьбы с фейковыми новостями, в которых используются так называемые дипфейки. Современные дипфейк-технологии позволяют заменить лицо человека в любом видеоролике или вложить ему в уста слова, которых он никогда не произносил.
В своей разработке самарские ученые предложили использовать, в том числе, классические математические методы обработки цифровых изображений и методы глубокого обучения, позволяющие настраивать нейронные сети для обнаружения отдельных искусственных изменений изображения.
Как рассказал Кузнецов, при анализе цифрового фотоснимка изображение разбивается на маленькие квадраты, а видео разделяется на кадры, и в каждом кадре анализируются локальные области на предмет наличия искажений.
"Особенно тщательно при этом проверяются контуры, потому что если в оригинальном видео заменено лицо человека, то наша задача найти в кадре неоригинальные локальные области, выявить стык, некий шов между оригинальным и неоригинальным изображениями. Естественно, исходное изображение мы не восстановим, но мы сможем определить признаки подделки или посчитать коэффициент доверия-недоверия к данному видео", — пояснил ученый.
Он сообщил, что веб-сервис, с помощью которого можно будет проверять подлинность тех или иных изображений и видеороликов, планируется создать уже до конца этого года.
"Любой сможет отправить на этот сайт фотографии или видео, или указать ссылку, после чего веб-сервис с помощью нейросетей определит коэффициент достоверности представленного материала и, например, выявит признаки подделки", — отметил Кузнецов.
Ранее сотрудники кафедры геоинформатики и информационной безопасности Самарского университета уже разработали программный продукт, который за несколько секунд позволяет проверить достоверность любого изображения. Это касается как снимков, полученных с космических спутников, так и цифровых документов, и фотографий для глянца.
Определенный набор программных средств дает возможность выявить множество видов визуальных искажений, которые вносятся намеренно — начиная от геометрических преобразований на снимке и ретуширования, заканчивая дублированием объектов.
Создание нового веб-сервиса для разоблачения видеофейков является продолжением работы ученых в этом направлении.
Впрочем, проверка достоверности необходима не только для фотографий и видеоизображений. В прошлом году к тестированию программы проверки фактов в материалах приступил Яндекс.Дзен — блогерская платформа, где ежедневно более 30 тыс. авторов публикуют десятки тысяч материалов.
В Яндекс.Дзене есть требования к качеству контента и содержанию публикуемых материалов. Модераторы Дзена проверяют статьи на соответствие общим правилам платформы. Эта проверка также учитывает жалобы пользователей на контент.
К проверке фактов были подключены внешние партнеры-фактчекеры — медиа или организации, у которых есть профессиональная экспертиза в области проверки информации. Их задача — проверять публикации блогеров на возможную недостоверность, а также помогать платформе развивать системную работу по фактчекингу.
Дзен отправляет публикации блогеров нескольким фактчекерам в случайном порядке. На проверку одного материала отводится от четырех до восьми часов. В течение этого времени публикация пропадает из общей ленты и доступна только по прямой ссылке. Команда Дзена контролирует процесс проверки на соответствие общему стандарту: проверены ключевые факты, есть ссылки на несколько достоверных источников данных, соблюдено время проверки.
Публикации, в которых фактчекеры нашли недостоверную информацию, будут ограничены на платформе. Ограничения могут быть нескольких типов: от показа только подписчикам до полного удаления. Автор материала может оспорить решение, предоставив подтверждения достоверности информации.
Директор Яндекс.Дзена по работе с партнерами Александр Соболь выражал надежду, что сотрудничество с фактчекерами поможет Дзену более точно определять фейки и настроить системную работу по проверке фактов в публикациях.
Одним из первых партнеров программы стал "Интерфакс".
"Сегодняшние возможности IT-систем "Интерфакса", в частности, системы медиа-мониторинга "СКАН-Интерфакс", позволяют нам не только выявлять фейки, отслеживать поле их распространения, но и препятствовать этому", — рассказывал первый заместитель генерального директора Группы "Интерфакс" Алексей Горшков.
Также к программе присоединилась Высшая школа экономики, совместно с которой Дзен будет изучать проблему фейков и исследовать методы борьбы с ложной информацией.
В свою очередь Роскомнадзор также в прошлом году приступил к использованию технологий искусственного интеллекта для повышения скорости и точности выявления противоправной информации в интернете. Эти технологии значительно увеличивают мощность системы мониторинга, повышая объем обрабатываемой информации.
Новое программное обеспечение системы мониторинга позволяет проверять более 11 млн 700 тыс. текстовых материалов в сутки и выявлять незаконную информацию с точностью не ниже 85%.
Выявленная информация с признаками противоправной направляется для проверки экспертам. При этом применение нейросетей позволяет повысить производительность работы экспертов более чем в 14 раз.