Власти США хотят остановить 3D-печать автоматического оружия

Власти США хотят остановить 3D-печать автоматического оружия

Власти США хотят остановить 3D-печать автоматического оружия

Минюст США обратился за помощью к производителям оборудования для 3D-печати, чтобы те помогли прекратить изготовление кустарных устройств, позволяющих переделать самозарядное оружие в автоматическое.

Как отметило Бюро по алкоголю, табаку, огнестрельному оружию и взрывчатым веществам (ATF), изъятие таких устройств за период с 2017 по 2021 год выросло в 6 раз.

Еще в минувшую пятницу заместитель генерального прокурора Луиза Монако объявила о совместных усилиях с ATF по борьбе с изготовлением и распространением таких устройств. Она привела данные, согласно которым они стали самым распространенным видом нелегального огнестрельного оружия.

Вместе с тем издание The Register обращает внимание на то, что из выступления Луизы Монако непонятно, идет ли речь о готовых изделиях или же о разного рода переключателях огня или автоматических шепталах.

Эти детали, которыми заменяют штатные в винтовках и пистолетах, позволяют превратить самозарядное оружие в полностью автоматическое. Для их изготовления часто используют 3D-принтеры.

«Они (переключатели огня или шептала) дешевые. Их нетрудно изготовить, часто с помощью 3D-принтеров. И они распространяются годами. Учитывая явную опасность, которую MCD представляют для наших сообществ, сегодня я издаю директиву для всего департамента, и мы принимаем меры для противодействия этой растущей угрозе», — отметила Луиза Монако.

Она также сообщила, что Министерство юстиции и ATF разработали совместный план действий для пресечения распространения кустарных устройств для переделки оружия.

Также Минюст и ATF будут координировать действия по обеспечению соблюдения норм федерального законодательства по обороту оружия и информировать правоохранительные органы о технологиях нелегальных оружейников.

Аналогичные меры уже были приняты в ряде штатов. Например, в Оклахоме обвинения были предъявлены 40 лицам, тогда как раньше их число не превышало 8. Кроме того, благодаря активности правоохранителей, удалось пресечь продажу таких устройств на улицах и через социальные медиа.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Авторы дипфейков используют автоответчики для сбора образцов голоса

Для создания голосового дипфейка злоумышленникам достаточно всего нескольких секунд записи — например, приветствия на автоответчике. На основе таких аудиофрагментов они генерируют сообщения от имени жертвы, используя их для атак на ее окружение.

Как отметил ведущий аналитик департамента Digital Risk Protection компании F6 Евгений Егоров в комментарии для «Известий», приветствия на автоответчике практически не отличаются от голосовых сообщений, оставленных в мессенджерах или записанных во время телефонных разговоров.

По его словам, мошенники активно применяют технологии подделки голоса уже около двух лет, причем для этого существуют многочисленные инструменты, не требующие специальных знаний.

Руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов уточняет, что для воспроизведения тембра голоса достаточно всего трех секунд записи. Однако для создания более убедительной синтетической речи, учитывающей характерные особенности голоса и эмоциональную окраску, нужны более длинные образцы. Такие фрагменты нередко встречаются в приветствиях на автоответчиках.

Эксперт по кибербезопасности Angara Security Никита Новиков соглашается, что автоответчик может стать источником ключевых фраз, интонации и манеры речи человека. Затем мошенники используют сгенерированные сообщения в различных схемах обмана. Например, жертве могут поступать просьбы о материальной помощи от имени знакомых, а более сложные сценарии включают мошенничество с фейковыми знакомствами (FakeDate) или подделку сообщений от руководителей (FakeBoss), создавая иллюзию реального общения.

По словам Евгения Егорова, наиболее качественные голосовые дипфейки могут применяться в таргетированных атаках с использованием вишинга. Однако для этого злоумышленникам требуются более сложные и зачастую платные инструменты, позволяющие создавать реалистичный контент.

Максим Бузинов предупреждает, что современные системы детекции не всегда способны распознать качественные голосовые дипфейки. Ситуацию осложняет тот факт, что сами пользователи часто применяют технологии обработки звука, улучшающие качество их речи, что дополнительно затрудняет выявление подделок.

В связи с этим эксперты рекомендуют воздерживаться от записи собственного голоса в качестве приветствия на автоответчике и использовать стандартные варианты, предлагаемые операторами связи. При разговорах с руководителями и официальными лицами стоит уточнять, можно ли выполнить запрашиваемые действия через сайт или мобильное приложение. А при получении просьб о финансовой помощи всегда необходимо связаться с отправителем напрямую.

По прогнозам аналитиков, в 2025 году число атак с использованием дипфейков может значительно возрасти.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru