Через 5 лет ИИ будет сам находить и помечать фейки в интернете

Через 5 лет ИИ будет сам находить и помечать фейки в интернете

Через 5 лет ИИ будет сам находить и помечать фейки в интернете

Развитие технологий скоро приведет к тому, что ИИ будет сам искать и маркировать фейки в интернете. Горизонт планирования — 5-10 лет, предполагают эксперты. Сейчас исследователи работают над вычислением следов искусственного изменения контента и нейромаркетингом.

Перспективами обнаружения фейковых материалов с агентством ТАСС поделился руководитель рабочей группы Национальной технологической инициативы "Нейронет" Андрей Иващенко.

“Уже сейчас, — говорит эксперт, — есть большое количество технологий, автоматически распознающих различного рода "склейки" и монтаж в видеоматериалах”.

Текстовые анализаторы могут определить, написан ли текст одним человеком или разными людьми, что особенно востребовано при анализе комментариев в социальных сетях или отзывов на товары и услуги.

“Вполне вероятно, что через 5-10 лет мы будем заходить на сайт и сразу видеть отметки о фейковых материалах", — предполагает Иващенко.

Эксперт также считает, что сам интернет станет более адаптированным под потребности человека. Люди, например, смогут управлять операционной системой с помощью голосовых команд.

Разработчики "Нейронета" сейчас работают над развитием двух видов технологий, полезных для борьбы с фейками, рассказал Иващенко.

В первую категорию входят ИИ-системы, анализирующие текст, аудио, фото- и видеоизображения. Они позволяют вычислить следы искусственного изменения контента.

Второе направление — нейромаркетинг. В этом случае анализируются эмоциональные и поведенческие реакции человека с учетом биологической (невербальной) обратной связи — глазодвигательных, кожных реакций, температуры тела, ЭЭГ, ЭКГ, по которым можно определить истинные эмоции человека.

“Аналогичный принцип можно перенести на распознавание таких сигналов на видео. Например, следить за движением глаз, дыханием, положением тела", — объясняет эксперт.

Добавим, в конце февраля Роскомнадзор анонсировал запуск системы обнаружения информационных бомб “Вепрь”. Заработать она должна уже в этом году. Зимой запустили и другую систему со схожими целями. “Окулус” представляет собой автоматическую систему поиска запрещенного контента. Основная тематика поиска — экстремизм, наркотики, митинги, пропаганда ЛГБТ и военные фейки. К 2025 году “Окулус” обещают научить детально анализировать действия людей в интернете. “Вепрь” и “Окулус” должны войти в единую систему мониторинга информационного пространства.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

ИИ-сервис Android Auto заохал при чтении вслух сообщений WhatsApp

В Android Auto объявился странный баг: при зачитывании входящих сообщений WhatsApp по просьбе водителя умный сервис начал от себя добавлять отчетливое «Oh». Причины пока неизвестны, все ждут реакции Google.

Судя по комментариям в новой ветке Reddit, Android Auto таким же образом дополняет послания в Google Messages, Teams и Facebook (в России признана экстремистской и запрещена).

Неожиданное поведение ИИ-помощника проявляется независимо от марки авто или смартфона. Характерное «оханье» уже недели две слышат владельцы Pixel, Samsung, OnePlus, Sony, Nothing.

Не исключено, что сглючил не сам Android Auto, а Google Ассистент, точнее, его движок речевого вывода. В настоящее время ничего с этим сделать нельзя, остается только игнорировать неуместное междометие.

Вероятно, Google все же обратит внимание на баг и в скором времени исправит ситуацию. Те, кто не хочет ждать, могут попробовать откатить Android Auto до предыдущей версии — вдруг это поможет?

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru