Новые алгоритмы сканирования Gmail ловят 99,9% вредоносных вложений

Новые алгоритмы сканирования Gmail ловят 99,9% вредоносных вложений

Новые алгоритмы сканирования Gmail ловят 99,9% вредоносных вложений

Google оснастил сервис электронной почты Gmail усовершенствованными возможностями сканирования. По словам поискового гиганта, этот шаг помог существенно увеличить общий процент детектирования вредоносных документов.

Специалисты Google утверждают, что существующие модели машинного обучения вкупе с другими защитными мерами помогают заблокировать «более 99,9% киберугроз, пытающихся пробраться в ящики пользователей Gmail».

При этом уточняется, что сканер сервиса электронной почты покрывает огромные объёмы, обрабатывая более 300 миллиардов вложений каждую неделю.

Около 63% от общего числа обнаруженных вредоносных документов меняются каждый день, поэтому Google решил внедрить сканеры нового поколения, которые помогут повысить процент детектирования злонамеренных вложений с помощью глубокого обучения.

«С конца 2019 года работа новых сканеров помогла повысить на 10% число ежедневно детектируемых документов Office, содержащих вредоносные скрипты», — заявили сотрудники Google.

В особенности сканеры зарекомендовали себя в случае обнаружения «взрывных» атак (DDoS с высокой частотой) — детектирование увеличилось на 150%.

Как объяснил Google, в Gmail используется модель глубокого обучения, известная как TensorFlow, ему в помощь работает кастомный анализатор документа для каждого типа файлов. Их задача — парсить документы, искать типичные признаки вредоносных составляющих, извлекать макросы, деобфусцировать контент и так далее.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Автор роликов на YouTube борется с ИИ-плагиатом, подсовывая ботам мусор

На YouTube плодятся видеоматериалы, созданные на основе краденого контента с помощью ИИ. Автоматизированный плагиат позволяет мошенникам быстро получать доход с минимальными усилиями, а жертвы сплотились и пытаются дать отпор.

Автор видеоконтента F4mi борется с ИИ-ботами, ворующими расшифровки, вставляя в них большое количество скрытых мусорных данных, Подобное дополнение не мешает пользователям читать тексты, но способно обесценить творение умного помощника, обрабатывающего добычу скрейперов.

Разработанный F4mi метод полагается на использование формата ASS, созданного десятки лет назад для субтитров. Мусор вносится в расшифровки в пропорции 2:1, при этом используются фрагменты из открытых источников либо сгенерированные ИИ выдумки.

Возможности ASS позволяют задать нулевые значения размера и прозрачности вставок, то есть сделать их невидимыми. В результате обработки таких файлов ИИ-пособник мошенников выдает тексты, непригодные для использования.

Автор идеи признает, что более мощные инструменты вроде ChatGPT o1 смогут отфильтровать мусор и правильно воспроизвести оригинал. В этом случае придется еще помудрить над ASS-файлами, чтобы затруднить задачу и таким помощникам.

Поддержки ASS на YouTube не предусмотрено, там отдают предпочтение YTT, но можно использовать конвертер. В мобильной версии YouTube содержимое таких файлов будет отображаться некорректно — в виде черного окна поверх видео.

Изобретательному автору удалось обойти и это препятствие. Был написан Python-скрипт, который прячет мусорные вставки как черный текст на черном фоне. Единственная проблема, которая пока не решена, — это креш, возникающий на слишком тяжелых файлах.

К сожалению, придуманный F4mi трюк не помеха для таких инструментов, как Whisper разработки OpenAI, который сам делает расшифровку аудиозаписей, притом, по отзывам, вполне сносно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru