Исходники BotenaGo попали в паблик, ожидается появление новых IoT-ботнетов

Исходники BotenaGo попали в паблик, ожидается появление новых IoT-ботнетов

Исходники BotenaGo попали в паблик, ожидается появление новых IoT-ботнетов

Как оказалось, исходные коды вредоноса, которого в AT&T Alien Labs нарекли BotenaGo, доступны на GitHub с середины октября. Эксперты опасаются, что публикация повлечет рост числа вариантов Mirai-подобного бота, составляющего угрозу для миллионов роутеров и IoT-устройств.

Объявившийся три месяца назад Linux-зловред вооружен 33 эксплойтами для продуктов различных вендоров — D-Link, Netgear, Linksys, ZTE, ZyXEL. Проникнув в систему, бот работает как бэкдор, выполняя команды, подаваемые через обратный шелл или Telnet.

Анализ слитого кода вредоноса показал, что он уместился в 2891 строку. В Alien Labs полагают, что скромные размеры BotenaGo способны породить новую волну экспериментов в среде вирусописателей, а большое количество используемых эксплойтов делает его еще более привлекательным для потенциальных плагиаторов.

Похожая судьба постигла Mirai. В 2016 году его авторы выложили исходники на хакерском форуме; в итоге итерации мощного IoT-бота периодически всплывают в интернете до сих пор, являя миру новые имена — Satori, Masuta, MatryoshMoobot.

Из-за отсутствия активной связи с C2 конечная цель заражений BotenaGo неясна. Не исключено, что зловред является частью какого-то тулкита или призван развить успех Mirai на уже зараженных устройствах.

Наблюдатели из Alien Labs продолжают фиксировать эксплойт-атаки на сетевые и IoT-устройства, отмечая невысокий уровень детектирования — по состоянию на 26 января BotenaGo распознают 23 из 61 антивируса коллекции VirusTotal.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Новый генератор картинок ChatGPT ловко фальсифицирует счета общепита

В прошлом месяце ИИ-бот ChatGPT обрел новый генератор изображений с выпуском модели 4o. Первые пробы показали, что создаваемые с его помощью картинки с вставленным текстом стали более реалистичными.

Пользователи ChatGPT теперь заставляют его генерировать ресторанные счета и получают вполне убедительные дипфейки.

Фото одной из таких фальшивок было опубликовано в X.

 

 

 

Другие юзеры подхватили идею, добились схожих результатов, а в одном из случаев тот же фейковый счет был для большего правдоподобия «испачкан»:

 

Наиболее реалистичный образец получился у французского специалиста в области ИИ — из-за эффекта помятой бумаги.

 

В TechCrunch тоже опробовали новинку и получили вполне сносный вариант для гриль-бара в Сан-Франциско. Правда, в итоговой сумме вместо точки стояла запятая, к тому же у ChatGPT, видимо, плохо с арифметикой, но эти огрехи при желании можно быстро исправить, конкретизировав подсказки, или с помощью графического редактора.

 

В комментарии для онлайн-издания представитель OpenAI заявила, что все изображения, генерируемые ИИ-ботом, снабжены соответствующими метаданными. Обнаружив нарушение пользовательского соглашения, компания «принимает меры» и «учится» на таких случаях.

В ответ на вопрос, зачем вообще позволять ChatGPT соглашаться на авантюры, попахивающие злоупотреблением, собеседница подчеркнула, что их цель — предоставить юзерам «как можно больше свободы творчества». К тому же фейковые счета необязательно нужны для мошенничества, их можно использовать в целях финансового ликбеза, а также для создания оригинальных картин или продуктовой рекламы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru