Внутренний отчёт вскрыл слабую защищённость хакерских инструментов ЦРУ

Внутренний отчёт вскрыл слабую защищённость хакерских инструментов ЦРУ

Внутренний отчёт вскрыл слабую защищённость хакерских инструментов ЦРУ

Специальное подразделение ЦРУ, отвечающее за разработку хакерских инструментов, не смогло в должной мере защитить собственные сети. Согласно внутреннему докладу, ЦРУ было не в состоянии адекватно отреагировать на крупнейшую утечку секретных разработок.

Документы, проливающие свет на методы ЦРУ, представили в ходе слушания дела об утечке инструментов для взлома.

«На протяжении многих лет ЦРУ слишком часто отдавало предпочтение креативу и сотрудничеству в ущерб безопасности», — гласит отчёт.

Разбирательство, связанное с инцидентом трёхлетней давности, пролило свет на непростительно слабые защитные меры ЦРУ. По факту, если бы инструменты выкрали хакеры стран-оппонентов, спецслужба до сих пор могла бы не знать об утечке.

Пресс-секретарь ЦРУ Тим Барретт воздержался от комментариев в отношении опубликованного отчёта, однако заявил следующее:

«ЦРУ задействует лучшие в своём роде технологии, чтобы всегда быть на шаг впереди постоянно развивающихся киберугроз».

Ранее мы писали, что ЦРУ защищало свои сверхсекретные хакерские инструменты паролем «123ABCdef».

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Новая ИИ-модель копирует собеседника путем проведения опроса

Исследователи из трех американских университетов и команды Google DeepMind создали модель генеративного ИИ, способную после двухчасового аудиоинтервью сымитировать личность и поведение собеседника с точностью до 85%.

В контрольную выборку вошли 1052 добровольца разного возраста, пола, образования, достатка, национальности, вероисповедания и политических взглядов. Для всех были созданы индивидуальные программы-агенты одинаковой архитектуры.

Разработанный сценарий бесед включал обычные для социологических исследований вопросы, тесты «Большая пятерка» для построения модели личности, пять экономических игр («Диктатор», «Общественное благо» и проч.) и поведенческую анкету, составленную в ходе недавних экспериментов с большими языковыми моделями (БЯМ, LLM).

Ответы испытуемых сохранялись в памяти для использования в качестве контекста. Спустя две недели добровольцам предложили пройти тот же опрос, и LLM смогла предугадать их реплики с точностью до 85%.

 

По мнению авторов исследования, их метод создания цифровых двойников — хорошее подспорье в изучении индивидуального и коллективного поведения. Полученные результаты также можно использовать в социологии и для выработки политических решений.

К сожалению, совершенствование ИИ-технологий — палка о двух концах. Попав в руки злоумышленников, подобный инструмент позволит создавать еще более убедительные дипфейки, чтобы вводить в заблуждение интернет-пользователей с корыстной либо иной неблаговидной целью.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru