Google Messages предупредит об опасных ссылках и фото в стиле ню

Google Messages предупредит об опасных ссылках и фото в стиле ню

Google Messages предупредит об опасных ссылках и фото в стиле ню

В мессенджере Google для Android усилена защита от мошенников, появились алерты о потенциально опасных URL и контенте 18+, возможность блокировки зарубежных отправителей и верификации собеседника по открытым ключам.

Новые фичи, призванные повысить безопасность и приватность Google Messages, пока обкатываются как бета либо пилоты. Запуск некоторых можно ожидать к Новому году.

Детектирование мошеннических сообщений. Резидентные анализаторы текста (ML-модели) научились определять поддельные сообщения служб доставки и обманные предложения трудоустройства. Такие RCS автоматом отправляются в «Спам», или пользователю выводится алерт. Доступно в бета-версии.

Предупреждение о потенциально опасных ссылках мессенджер выводит, когда отправитель неизвестен, а само сообщение блокирует. Нововведение опробовали в Индии, Малайзии, Сингапуре и Таиланде; к концу года его развернут и в других странах.

Блокировка сообщений с зарубежных номеров, отсутствующих в списке контактов. При включении такие RCS скрываются и перемещаются в папку «Спам и заблокированные». Опцию к концу года запустят в пилотном режиме в Сингапуре.

Предупреждение о контенте 18+ выводится при попытке посмотреть картинку, которая может быть расценена как обнаженка. Изображение размывается, и пользователя просят подтвердить намерение открыть файл. При отправке или переадресации подобного контента ему напомнят о рисках.

Функция доступна в настройках Android и по умолчанию включена для тех, кому нет 18-ти. В ближайшие месяцы ее развернут на устройствах Android 9+, в том числе Android Go.

Дополнительная верификация контактов вводится для защиты пользователей от мошенников, выдающих себя за родственника или знакомого. Удостовериться в подлинности можно будет, к примеру, сканированием QR-кода или сравнением чисел. Запуск на Android 9+ запланирован на будущий год; систему можно будет применять и в других мессенджерах.

По данным Google, ее приложением RCS-связи каждый день пользуются более 1 млрд человек. На сервисе реализовано сквозное шифрование; для защиты также используются ИИ-фильтры, которые ежемесячно блокируют 2 млрд подозрительных сообщений.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru