Рост фишинга в Telegram составил 800%

Рост фишинга в Telegram составил 800%

Рост фишинга в Telegram составил 800%

Пользователи Telegram столкнулись с ростом фишинговых атак. Воруют частные и бизнес-аккаунты. Новая угроза — переадресация звонков на номер мошенников для авторизации под аккаунтом жертвы.

По данным американской Cofense, занимающейся борьбой с кибератаками, рост Telegram-фишинга в 2022 году составил 800%. “В первую очередь для этих целей злоумышленники использовали боты”, — цитирует экспертов “Ъ”.

К началу 2023 года в России фишинг стал одним из основных способов мошенничества в мессенджере, подтверждают в “Коде безопасности”.

“Увеличение числа атак на бизнес-каналы и на пользователей Telegram связано с тем, что сам мессенджер приобрел большую популярность, а значит, стал хорошим каналом для распространения фишинговых атак и “вкусной” целью для мошенников”, — комментирует цифры для Anti-Malware.ru главный специалист отдела комплексных систем защиты информации компании “Газинформсервис” Дмитрий Овчинников.

До этого аферисты массово атаковали социальные сети, теперь вектор атаки сместился в сторону Telegram.

По данным Group-IB, в России уже выявлено не менее 1 тыс. мошеннических группировок, работающих и координирующих действия в Telegram, в том числе 34 действующие русскоязычные группы для распространения “программ-стилеров”. Сегодня компания выпустила аналитический отчет по основным угрозам будущего года.

В среднем в чате каждой группировки состоит около 200 участников, уточнил ведущий аналитик Group-IB департамента Digital Risk Protection Евгений Егоров.

Более серьезную опасность, чем фишинг несет новый способ авторизации в мессенджере, считает владелец Telegram-бота “Глаз бога” Евгений Антипов.

В середине года Telegram перестал отправлять код для авторизации через СМС: для входа в ПК-клиенте или браузере теперь требуется активированный клиент мессенджера на мобильном устройстве, куда и отправляется код.

Злоумышленник, для которого важно попасть в Telegram-аккаунт жертвы, может взломать аккаунт, если настроит переадресацию звонков на свой номер телефона, подтвердив за жертву ее личность, считает Антипов.

Для этого достаточно использовать паспортные данные, которые можно найти в слитых базах данных.

По словам Овчинникова, схема с переадресацией звонков реальна, но трудозатратна. Скорее всего, она будет выполняться только таргетированно против владельцев определенных каналов. Обычным пользователям стоит больше беспокоиться о фишинговых атаках и не переходить по подозрительным ссылкам.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru