Telegram устранил баг компрометации аккаунта через голосовую почту

Telegram устранил баг компрометации аккаунта через голосовую почту

Telegram устранил баг компрометации аккаунта через голосовую почту

Разработчики Telegram устранили в мессенджере уязвимость, благодаря которой киберпреступники могли использовать голосовую почту для получения контроля над учётными записями пользователей.

Метод, получивший название «voicemail hack», использовался в атаках на аккаунты Telegram, принадлежащие политическим деятелям Бразилии. Эксперты сообщают, что более тысячи таких учетных записей были скомпрометированы в ходе этой кибероперации.

Среди жертв недавних атак оказались такие крупные фигуры, как президент Бразилии Жаир Болсонару и министр юстиции Серджио Моро.

Принцип техники «voicemail hack» основывается на верификации аккаунта Telegram на новом устройстве. На этом этапе пользователь может выбрать подтверждение учётной записи про помощи короткого кода, который сообщают в голосовом сообщении.

Если пользователь не ответил на звонок три раза подряд, короткий код ему отправят на голосовую почту, предусмотренную оператором связи.

В этом случае киберпреступники использовали сервисы VoIP для имитации номера жертвы, получали доступ к голосовой почте с помощью паролей 0000 или 1234 (жертвы их редко меняли) и вытаскивали короткий код для верификации.

С помощью этого кода атакующие добавляли ещё один аккаунт Telegram себе на устройство.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Новая ИИ-модель копирует собеседника путем проведения опроса

Исследователи из трех американских университетов и команды Google DeepMind создали модель генеративного ИИ, способную после двухчасового аудиоинтервью сымитировать личность и поведение собеседника с точностью до 85%.

В контрольную выборку вошли 1052 добровольца разного возраста, пола, образования, достатка, национальности, вероисповедания и политических взглядов. Для всех были созданы индивидуальные программы-агенты одинаковой архитектуры.

Разработанный сценарий бесед включал обычные для социологических исследований вопросы, тесты «Большая пятерка» для построения модели личности, пять экономических игр («Диктатор», «Общественное благо» и проч.) и поведенческую анкету, составленную в ходе недавних экспериментов с большими языковыми моделями (БЯМ, LLM).

Ответы испытуемых сохранялись в памяти для использования в качестве контекста. Спустя две недели добровольцам предложили пройти тот же опрос, и LLM смогла предугадать их реплики с точностью до 85%.

 

По мнению авторов исследования, их метод создания цифровых двойников — хорошее подспорье в изучении индивидуального и коллективного поведения. Полученные результаты также можно использовать в социологии и для выработки политических решений.

К сожалению, совершенствование ИИ-технологий — палка о двух концах. Попав в руки злоумышленников, подобный инструмент позволит создавать еще более убедительные дипфейки, чтобы вводить в заблуждение интернет-пользователей с корыстной либо иной неблаговидной целью.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru