Криптокошелек Макафи наконец взломали, разработчики Bitfi отрицают это

Криптокошелек Макафи наконец взломали, разработчики Bitfi отрицают это

Криптокошелек Макафи наконец взломали, разработчики Bitfi отрицают это

Многие наверняка помнят, что Джон Макафи пообещал выплатить вознаграждение тем лицам, которые смогут взломать его криптокошелек Bitfi. Теперь же Билл Пауэл и Эндрю Тирни (также известный как Cybergibbons) из Pen Test Partners сообщили о том, что Bitfi наконец удалось взломать.

Представители Bitfi подтвердили, что криптовалютный кошелек был подвергнут рутингу, что позволило хакерам получить контроль над аппаратным обеспечением кошелька и отобразить на экране все, что им заблагорассудится.

Уже это само по себе удовлетворяет понятию «взлом». Однако разработчики Bitfi считают, что рутинг не является взломом. Согласно Bitfi, взломом будет считаться «любой метод, благодаря которому можно будет вывести средства с кошелька».

Компания Pen Test Partners, занимающаяся исследованиями в области кибербезопасности, сообщила, что ей фактически удалось извлечь деньги из криптокошелька.

Однако и тут представители Bitfi нашли способ вывернуться — они заявили, что ни один из исследователей не выступил с требованием выплатить полагающиеся 250 000 долларов вознаграждения.

Cybergibbons опубликовал твит, в котором доказывает, что ему удалось успешно провести транзакцию. Исследователь считает, что ему причитается вознаграждение.

Напомним, что в начале этого месяца стало известно, что криптовалютный кошелек Bitfi, созданный самим Джоном Макафи, передает данные в Китай. К такому выводу пришли изучившие его специалисты в области кибербезопасности, которые хотели получить обещанные Макафи деньги за взлом Bitfi.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Новая ИИ-модель копирует собеседника путем проведения опроса

Исследователи из трех американских университетов и команды Google DeepMind создали модель генеративного ИИ, способную после двухчасового аудиоинтервью сымитировать личность и поведение собеседника с точностью до 85%.

В контрольную выборку вошли 1052 добровольца разного возраста, пола, образования, достатка, национальности, вероисповедания и политических взглядов. Для всех были созданы индивидуальные программы-агенты одинаковой архитектуры.

Разработанный сценарий бесед включал обычные для социологических исследований вопросы, тесты «Большая пятерка» для построения модели личности, пять экономических игр («Диктатор», «Общественное благо» и проч.) и поведенческую анкету, составленную в ходе недавних экспериментов с большими языковыми моделями (БЯМ, LLM).

Ответы испытуемых сохранялись в памяти для использования в качестве контекста. Спустя две недели добровольцам предложили пройти тот же опрос, и LLM смогла предугадать их реплики с точностью до 85%.

 

По мнению авторов исследования, их метод создания цифровых двойников — хорошее подспорье в изучении индивидуального и коллективного поведения. Полученные результаты также можно использовать в социологии и для выработки политических решений.

К сожалению, совершенствование ИИ-технологий — палка о двух концах. Попав в руки злоумышленников, подобный инструмент позволит создавать еще более убедительные дипфейки, чтобы вводить в заблуждение интернет-пользователей с корыстной либо иной неблаговидной целью.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru