На Marriott подают иски за утечку данных 500 млн пользователей

На Marriott подают иски за утечку данных 500 млн пользователей

На Marriott подают иски за утечку данных 500 млн пользователей

Спустя считанные часы после того, как сеть гостиниц Marriott опубликовала информацию об утечке пошли первые иски в адрес компании. В частности, двое жителей штата Орегон пытаются засудить Marriott за раскрытие их персональных данных. Такого же рода иск был подан из штата Мэриленд.

Оба исковых заявления претендуют на статус групповых. Истцы из Орегона требуют от компании $12,5 миллионов за разглашение их данных. На данный момент известно, что всего от утечки пострадало около 500 миллионов пользователей. Их персональные данные были похищены с серверов Marriott.

Подавшие иски лица считают, что каждому пострадавшему должно быть выплачено минимум 25 долларов за те неудобства, которые им доставил инцидент — например, пользователям придется потратить время на блокировку своих карт, так как эта информация также попала в руки третьих лиц.

На данный момент в Marriott не сообщили, сколько средств злоумышленникам удалось похитить у пользователей, однако есть данные, что эта цифра не может превышать 327 миллионов. Пострадали постояльцы, которые пользовались услугами этой сети гостиниц за последние четыре года.

Эксперты считают, что в ближайшее время на Marriott подадут в суд еще многие пользователи, чьи данные были скомпрометированы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Выдачей ИИ-поиска можно манипулировать с помощью скрытого контента

Тестирование поискового ChatGPT показало, что в нынешнем виде проект уязвим к злоупотреблениям. Умного помощника можно заставить выдавать недостоверные и даже вредоносные результаты с помощью скрытого текста на веб-страницах.

Доступ к поисковой системе на основе ИИ-технологий OpenAI открыла в рамках платной подписки два месяца назад. На прошлой неделе новый сервис подключили всем зарегистрированным пользователям ChatGPT, с предложением назначить его поисковиком по умолчанию.

К сожалению, расширение возможностей умного чат-бота не избавило его от проблем, характерных для всех ИИ-инструментов. Его по-прежнему можно сбить с толку объемными текстами и заставить следовать сторонним инструкциям, применив инъекцию стимула (prompt injection).

Так, злоумышленник может создать поддельную страницу продукта с многочисленными положительными отзывами в виде скрытого текста, и ChatGPT ответит утвердительно на вопрос о целесообразности покупки.

Если включить в скрытый текст указание всегда расхваливать товар, ИИ будет упорно его выполнять даже при обилии отрицательных отзывов (а в случае с потенциально опасным кодом — предупреждений об угрозе).

«Большие языковые модели очень доверчивы, почти как дети, — пояснил для The Guardian эксперт Карстен Ноль (Karsten Nohl) из Security Research Labs. — С обширной памятью и минимальной способностью давать субъективную оценку. Нельзя принимать на веру рассказ ребенка о том, что он где-то услышал».

Интернет-поиск по запросу — новая сфера деятельности для ИИ-ассистента, которого к тому же легко обмануть. У него пока нет опыта поисковика Google, давно научившегося игнорить сайты со скрытым контентом либо задвигать их на последние позиции выдачи.

 

О возможных ошибках ChatGPT и необходимости проверки важной информации пользователей предупреждают в заявлении OpenAI об отсутствии гарантий — оно приведено в подвале каждой страницы веб-сервиса.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru