Песков опроверг использование технологии кибершпионажа VISR против Путина

Песков опроверг использование технологии кибершпионажа VISR против Путина

Песков опроверг использование технологии кибершпионажа VISR против Путина

Журналист Wall Street Journal и официальный репортёр Белого дома Байрон Тау сообщил в своей книге, что Президент России Владимир Путин был одним из объектов слежки с использованием технологии кибершпионажа VISR (ранее носила название Locomotive).

Она пришла на смену устаревшим технологиям, где  кибершпионаж осуществлялся через дублирование пользовательских данных. Данные собирались в том числе через сети телеком-операторов. Об этом сообщило издание Wired.

Разработкой технологии VISR занималась независимая американская компания PlanetRisk. Исследования проводились прежде всего на деньги американских разведывательных служб и правительственных ведомств США. Большие данные по геолокации и перемещениях пользователей смартфонов по всему миру покупались у коммерческих маркетинговых служб. Они собирали их в рекламных целях.

В частности, геолокация перемещений Владимира Путина якобы была получена через контент смартфонов, который загружался по собственному желанию, как полагала команда PlanetRisk, водителями, сотрудниками службы безопасности и другим вспомогательным персоналом. Это позволяло идентифицировать служащих. PlanetRisk предлагала эти данные к продаже разведсообществу и спецслужбам США.

Дмитрий Песков. пресс-секретарь Президента РФ заявил в ответ на запросы журналистов (цитирует РИА Новости):

«Нам неизвестно, что именно таким образом следили, я не знаю, на чем основывается эта информация. <…> Вместе с тем, конечно же, наши спецслужбы делают все необходимое для обеспечения безопасности главы государства. Ну и, конечно, нужно отдавать себе отчёт в том, что любые смартфоны с любой операционной системой абсолютно прозрачны для слежки, наблюдения и так далее. То есть все, кто пользуется смартфонами, должны это отчётливо понимать».

Следует уточнить, что речь в статье Wired шла не о скомпрометированных смартфонах, а о том, что разведслужбы мира могут использовать открытые данные, собранные в рекламных целях. Эти данные доступны бесплатно всем желающим, что ставит под угрозу всех, включая первых лиц государства.

Используемые в настоящее время мобильные и веб-технологии не позволяют отследить утечку подобной информации. Нет также систем для контроля за её распространением. Фактически это – коммерческие данные, приобрести которые могут все желающие.

Сообщается, что уже запущены несколько стартапов в мире, которые ведут разработку продуктов с применением геоданных в подобных целях. В частности, называются израильские стартапы Insanet, Patternz и Rayzone. Это создаёт риск бесконтрольного применения технологий геотаргетинга пользователей.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Преступлений с применением генеративного ИИ станет в 10 раз больше

По оценкам экспертов, в 2025 году количество преступлений, совершённых с использованием генеративного искусственного интеллекта (ИИ), может увеличиться в 10 раз по сравнению с 2024 годом.

Причём данные технологии начнут активно применять не только киберпреступники, но и представители традиционного криминального мира.

Первым известным случаем использования генеративного ИИ для реального преступления стал подрыв электромобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Злоумышленник воспользовался ChatGPT для планирования атаки.

«Рост преступлений, связанных с ИИ, официально не фиксируется, однако его масштабы можно оценить по числу ботов и сгенерированного ими контента. В 2025 году прирост подобных преступлений может составить от восьми до десятикратного увеличения по сравнению с предыдущим годом», — заявил руководитель департамента расследований T.Hunter Игорь Бедеров в комментарии для «Известий». Он отметил, что меры защиты можно обойти с помощью простых методов промт-инжиниринга, например, внедряя инструкции по созданию взрывных устройств в текстах художественных произведений.

По мнению экспертов, в 2025 году генеративный ИИ будут использовать до 90% киберпреступных группировок. Инструменты ИИ для составления фишинговых сообщений уже давно освоены, и их применение будет только расти. Генеральный директор Phishman Алексей Горелкин считает, что технологии нейросетей и чат-ботов могут взять на вооружение до 90% группировок, специализирующихся на социальной инженерии.

Старший аналитик Positive Technologies Екатерина Снегирёва подчеркнула, что генеративный ИИ активно используется для создания и модификации вредоносного кода.

Так, в июне 2024 года была зафиксирована фишинговая атака с использованием вредоносных скриптов, сгенерированных нейросетями. При этом 38% компаний применяют генеративный ИИ бесконтрольно, что значительно повышает риск утечек данных.

Эксперты F.A.C.C.T. прогнозируют: в 2025 году возрастёт число атак с использованием технологий дипфейков, массового автоматизированного фишинга и совершенствования методов поиска уязвимостей в программных системах. Впрочем, уже в 2024 году массовое использование дипфейков стало реальностью благодаря инструментам, позволяющим имитировать голос в режиме реального времени.

В России ситуация будет менее острой. Это связано с ограниченной доступностью зарубежных расширенных версий генеративного ИИ для граждан и встроенными мерами защиты в российских аналогах. Например, в отечественных системах предусмотрены фильтры на ключевые стоп-слова, которые невозможно обойти. Тем не менее регулирование использования генеративного ИИ требует постоянного уточнения и адаптации.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru