Android-троян помогает мошенникам пугать россиян взломом мобильного банка

Android-троян помогает мошенникам пугать россиян взломом мобильного банка

Android-троян помогает мошенникам пугать россиян взломом мобильного банка

Телефонные мошенники, выдающие себя за службу безопасности банка, начали использовать Android-трояна, выводящего поддельные пуш-уведомления о списании средств. Фейки призваны сделать звонок с ложным сообщением о взломе более убедительным.

Объявившийся в России зловред может попасть на смартфон различными путями — в результате посещения зараженного сайта, загрузки вместе с нелицензированным софтом, перехода по вредоносной ссылке, присланной по имейл, в виде СМС или в мессенджере. Удалить его можно простым сбросом настроек.

В комментарии для «Известий» представитель SafeTech пояснил, что в результате заражения операторы трояна получают ограниченный доступ к Android-устройству. Пуш-имитации выглядят достоверно и способны напугать жертву, подготовив ее к последующему звонку лжесотрудника банка.

Дальнейший сценарий зависит от фантазии исполнителя. Сообщив о мнимом взломе личного кабинета, мошенник может попытаться выманить данные для входа в систему ДБО или предложить перевести деньги на якобы безопасный счет.

Похожие случаи зафиксировали также в Почта Банке и Ассоциации развития финансовой грамотности (АРФГ). Примечательно, что никто из пострадавших не использует антивирус.

«Схема работает независимо от того, сколько на счете денег: пуш-сообщения приходят на небольшие суммы, но люди пугаются, что систему взломали и мошенники выведут всё, что есть на счете, если их не остановить, — уточнили в АРФГ. — И действительно сообщают код, когда им звонит “представитель службы безопасности”, чтобы, например, отменить операции».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Новый генератор картинок ChatGPT ловко фальсифицирует счета общепита

В прошлом месяце ИИ-бот ChatGPT обрел новый генератор изображений с выпуском модели 4o. Первые пробы показали, что создаваемые с его помощью картинки с вставленным текстом стали более реалистичными.

Пользователи ChatGPT теперь заставляют его генерировать ресторанные счета и получают вполне убедительные дипфейки.

Фото одной из таких фальшивок было опубликовано в X.

 

 

 

Другие юзеры подхватили идею, добились схожих результатов, а в одном из случаев тот же фейковый счет был для большего правдоподобия «испачкан»:

 

Наиболее реалистичный образец получился у французского специалиста в области ИИ — из-за эффекта помятой бумаги.

 

В TechCrunch тоже опробовали новинку и получили вполне сносный вариант для гриль-бара в Сан-Франциско. Правда, в итоговой сумме вместо точки стояла запятая, к тому же у ChatGPT, видимо, плохо с арифметикой, но эти огрехи при желании можно быстро исправить, конкретизировав подсказки, или с помощью графического редактора.

 

В комментарии для онлайн-издания представитель OpenAI заявила, что все изображения, генерируемые ИИ-ботом, снабжены соответствующими метаданными. Обнаружив нарушение пользовательского соглашения, компания «принимает меры» и «учится» на таких случаях.

В ответ на вопрос, зачем вообще позволять ChatGPT соглашаться на авантюры, попахивающие злоупотреблением, собеседница подчеркнула, что их цель — предоставить юзерам «как можно больше свободы творчества». К тому же фейковые счета необязательно нужны для мошенничества, их можно использовать в целях финансового ликбеза, а также для создания оригинальных картин или продуктовой рекламы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru