Google Password Manager скоро позволит удалять все пароли одной кнопкой

Google Password Manager скоро позволит удалять все пароли одной кнопкой

Google Password Manager скоро позволит удалять все пароли одной кнопкой

Google Password Manager скоро обзаведётся новой функциональностью и позволит пользователям Android-смартфонов разом удалить все сохранённые учётные данные при переходе на альтернативный менеджер паролей.

Издание Android Authority обратило внимание на нововведение в бета-версии Google Password Manager: судя по всему, Google планирует добавить в софт кнопку «Delete all data».

Помимо самих паролей, эта опция должна вычищать и ключи доступа (passkeys). Как известно, функциональностью Google Password Manager на Android-устройствах управляет Google Play Services. В бета-версии Google Play Services v25.02.32 beta представители Android Authority нашли следующие строки:

<string name="pwm_delete_all_delete_button">Delete</string>
<string name="pwm_delete_all_dialog_description">If you continue, your passwords, passkeys, and other data will be permanently deleted from Google Password Manager. Any accounts you created for sites or apps won’t be deleted.</string>
<string name="pwm_delete_all_dialog_title">You’re about to delete your Google Password Manager data</string>
<string name="pwm_delete_all_setting_description">Delete all saved passwords and passkeys</string>
<string name="pwm_delete_all_setting_title">Delete all data</string>
<string name="pwm_delete_all_success_message">All passwords and passkeys were successfully deleted.</string>

На сегодняшний день удалять сохранённые в Google Password Manager учётные данные можно поштучно, что, конечно же, неудобно при необходимости очистить всё хранилище.

Кнопка «Delete all data», как ожидается, должна решить эту проблему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Microsoft: системы на базе ИИ никогда не станут абсолютно безопасными

Команда Microsoft AI Red Team (AIRT) подытожила свой опыт тестирования 100 продуктов, созданных в компании на основе генеративного ИИ, и пришла к выводу, что обеспечение безопасности таких систем — нескончаемый процесс.

Из-за фундаментальных ограничений ИИ-моделей угрозы вроде инъекции стимула и джейлбрейка в этой сфере неистребимы.

Однако такие атаки можно сделать более затратными — как и в случае с другими ИТ-рисками, которые удается снизить, применяя, к примеру, тактику эшелонированной защиты (defense-in-depth) или следуя принципам конструктивной безопасности (security-by-design).

Делясь опытом, в Red Team также отметили (PDF), что для выстраивания защиты ИИ-системы важно понимать ее возможности и учитывать сферу применения. Так, большие языковые модели (БЯМ, LLM) склонны слепо следовать инструкциям пользователя, и их легко обмануть, спрятав вредоносный контент в большом объеме безобидного текста при вводе.

Также атака на ИИ-помощника по литературному творчеству вряд ли приведет к серьезным последствиям, а в случае с LLM, предназначенной для анализа историй болезни, может нанести вред здоровью пациентов и поставить крест на репутации медучреждения.

Чтобы заставить LLM выдать вредный совет, необязательно проводить градиентные состязательные атаки. Тот же эффект можно получить более дешевым способом, манипулируя интерфейсом либо введя в заблуждение модель языка и технического зрения.

 

Еще одно важное наблюдение, которым поделились специалисты: использование ИИ увеличивает существующие риски и создает новые.

Напомним, вопросы использования ИИ недавно обсуждались в ходе Открытой конференции Института системного программирования РАН им. В. П. Иванникова. Участники пленарной дискуссии сошлись во мнении, что внедрение ИИ-технологий тормозят проблемы доверия и безопасности таких сервисов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru