Социальные боты причастны к воровству личных данных

Социальные боты причастны к воровству личных данных

Согласно результатам последнего исследования, проведенного специалистами из канадского Университета Британской Колумбии в Ванкувере, так называемые "социальные боты" - программы, созданные для имитации поведения людей в социальных сетях, способны эффективно похищать персональные данные пользователей. Так, в одной лишь Facebook канадские исследователи при помощи "социо-ботов" получили почти 250 гигабайт информации о пользователях этой сети.



Двухмесячное исследование проводилось с целью определить, насколько уязвимы социальные сети и их пользователи перед лицом крупномасштабных операций, связанных с похищением личных данных. Как можно понять из полученных 250 гигабайт данных, очень уязвимы.

Канадские социологи говорят, что исключительно в академических целях запустили в социальные сети 102 различных "социо-бота", которые завели себе персональные страницы с фотографиями, а сам функционал ботов позволял им "стучаться" к другим пользователям и отправлять им сообщения с инвайтами. Запущенные боты разослали пользователям 5053 сообщения, причем каждый бот был ограничен отправкой 25 сообщений в день, чтобы у Facebook не сработала антиспамерская система. За первые несколько дней теста 19% инвайтов (976 штук) были приняты пользователями, передает cybersecurity

За следующие полтора месяца боты отправили еще 3517 запросов данных своим новым "друзьям" по Facebook. Из этого числа 2079 пользователей такие данные предоставили. Для того, чтобы повысить шансы на выдачу данных, боты использовали психологический прием под названием "триадный принцип закрытия", предусматривающий заведение некоего общего с пользователем друга в сети.

Канадские исследователи говорят, что социальные сети оказываются чрезвычайно уязвимы для крупномасштабных кампаний по хищению данных. Примерно 8 из 10 пользователей клюют на какую-либо уловку ботов. "На примере социальной сети Facebook мы показали, что получать персональные данные совсем несложно, более того этот процесс можно автоматизировать и проводить в чрезвычайно больших масштабах. Самим пользователям и операторам сетей стоит задуматься над этим", - говорится в результатах исследования, которые должны быть опубликованы на будущей неделе.

По словам авторов исследования, социальные механизмы защиты в Facebook и иных соцсетях существуют, но они недостаточно интеллектуальны и пока не могут отличить настоящего пользователя от бота, даже если последний действую полностью на автомате и без участия живого человека. Также в исследовании говорится, что в будущем на базе этой или ей подобных методик могут быть реализованы настоящие кампании по краже данных у десятков или даже сотен тысяч людей.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

8,5% подсказок ИИ сливают ключи доступа и финансовые данные компаний

Проведенное в Harmonic Security исследование показало, что при вводе подсказок корпоративные пользователи ИИ-сервисов могут случайно слить конфиденциальные данные, в том числе финансовую информацию, ключи доступа и код проприетарного программного обеспечения.

В IV квартале 2024 года эксперты тщательно мониторили использование бизнесом Microsoft Copilot, ChatGPT, Google Gemini, Claude от Anthropic и Perplexity. За этот период были изучены тысячи посказок-стимулов, которыми сотрудники предприятий пользовались в ходе работы с инструментами на основе генеративного ИИ.

В подавляющем большинстве случаев юзеры решали простые задачи: резюмировали текст, редактировали блог-записи, оформляли документацию по кодам. Тем не менее 8,5% зафиксированных подсказок исследователи идентифицировали как угрозу утечки важных данных.

В 45,8% случаев такой ввод содержал клиентские данные — сведения об оплате счетов, идентификаторы для доступа к сервисам. Более четверти потенциально опасных подсказок (26,8%) раскрывали информацию о сотрудниках, в том числе расходы по зарплатам, послужные списки, персональные данные.

Умному бизнес-помощнику также могут неумышленно слить юридическую и финансовую информацию (процесс продаж, портфель инвестиций, сделки M&A), связанные с безопасностью сведения (результаты пентестов, конфигурация сети, отчеты об инцидентах), критические важные коды (ключи доступа, исходники проприетарного ПО).

 

«В большинстве случаев организации справляются с подобным сливом, блокируя запросы либо предупреждая пользователей о потенциальной опасности совершаемых действий, — комментирует гендиректор Harmonic Аластер Патерсон (Alastair Paterson). — Однако не все пока располагают такими возможностями. Беспокоит также большое количество бесплатных подписок».

Бесплатные ИИ-инструменты обычно хуже защищены, чем корпоративные версии. К тому же их пользовательское соглашение обычно предусматривает использование пользовательского ввода для тренинга, и риск утечки конфиденциальных данных для бизнеса в этом случае очевиден.

Согласно результатам исследования, сотрудники предприятий отдают предпочтение бесплатным подпискам на ИИ-услуги.

 

Эксперты не советуют прибегать к блокировкам, чтобы снизить риски. По их мнению, лучше управлять использованием ИИ, придерживаясь следующих рекомендаций:

  • мониторинг ввода данных в реальном времени;
  • использование платного доступа либо сервисов, не обучающих свои модели на пользовательском вводе;
  • визуальный контроль данных, которыми юзеры делятся с ИИ-инструментами, со стороны ИБ-служб;
  • ранжирование конфиденциальных данных по степени ущерба в случае потери;
  • создание правил использования ИИ с дифференциацией департаментов и групп;
  • обучение персонала ответственному использованию ИИ, с объяснением рисков.
AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru