Google устранил в Chrome баг WebGL, позволяющий выполнить код

Google устранил в Chrome баг WebGL, позволяющий выполнить код

Google устранил в Chrome баг WebGL, позволяющий выполнить код

Google исправил уязвимость класса use-after-free в библиотеке WebGL (Web Graphics Library) — компоненте Google Chrome. В случае злонамеренного использования брешь могла привести к выполнению вредоносного кода в контексте процесса браузера.

WebGL представляет собой JavaScript API, который браузеры используют для отображения интерактивной 2D- и 3D-графики без привлечения плагинов.

Патч для уязвимости уже включён в бета-версию Chrome, а в стабильном релизе Google Chrome 85.0.4149.0 он должен выйти сегодня (согласно расписанию Google).

Уязвимость в браузере обнаружил специалист компании Cisco Марчин Товальски. Брешь получила идентификатор CVE-2020-6492 и 8,3 баллов по шкале CVSSv3.

Как объясняет Товальски, уязвимость приводит к сбою в момент, когда компонент WebGL пытается некорректно обработать объекты в памяти.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Фантазер ChatGPT выставил примерного семьянина детоубийцей

Европейские правозащитники из НКО noyb подали норвежскому регулятору жалобу на OpenAI. Ее ИИ-собеседник вновь выдал неверную информацию о реальном человеке — заявил, что тот осужден за убийство своих сыновей и уже сидит.

Поскольку ChatGPT научился выполнять поиск по запросу, житель Норвегии Арве Хольмен (Arve Hjalmar Holmen) решил выяснить, что можно узнать о его персоне, задав такому помощнику вопрос «Кто такой…?» и добавив имя.

Пространный ответ поверг его в шок. Это была страшная сказка, в которой вымысел сплетен с реальными фактами.

Человек с таким именем, по версии ChatGPT, приобрел известность из-за трагического события. В 2020 году два брата, семи и десяти лет, якобы утонули в пруду недалеко от своего дома в Трондхейме.

В их смерти признали виновным отца, который попытался избавиться и от третьего сына. В итоге детоубийцу посадили на 21 год (максимальный срок в Норвегии).

Единственное, что соответствовало действительности в этом «ужастике», порожденном галлюцинациями ИИ,— это пол и возраст детей Хольмена, а также название города, где он живет со своей семьей.

В пользовательском соглашении OpenAI мелким шрифтом прописано, что ChatGPT может ошибаться и важную информацию нужно проверять, однако удалить ложные сведения из систем компании неимоверно трудно. Разработчик, по его словам, может лишь заблокировать запросы со стимулами, возвращающими данные, способные навредить репутации и даже разрушить чью-то жизнь.

Тем не менее популярный ИИ-бот перестал рассказывать страшноватые небылицы о Хольмене — видимо, в связи с недавним апдейтом. Однако активисты из noyb, которые теперь представляют интересы норвежца, намерены добиться кардинальных изменений, а также штрафных санкций за то, что OpenAI нарушает требования GDPR о точности персональных данных.

Скандальные ошибки в выдаче ChatGPT по запросам о реальных персонах уже не раз подводили разработчика. Несмотря на угрозы пострадавших, подобные случаи неумышленной дефамации никогда не доходили до суда.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru