Google создает в своей структуре подразделение по аудиту безопасности продуктов

Google создает в своей структуре подразделение по аудиту безопасности

За последнее время Google все чаще попадает под огонь критики за свои методы работы с персональными данными, а также за неоднознаную политику компании в области сбора информации. Буквально недавно интернет-гигант урегулировал претензии со стороны американской Федеральной Комиссии по торговле, заплатив за несанкционированный сбор данных 22,5 млн долларов.

По следам всех этих событий, компания сегодня объявила о создании так называемой команды быстрого реагирования Google Red Team, которая будет в режиме реального времени решать вопросы, связанные с приватностью данных, а также прайвиси-рисками для корпоративных и частных пользователей, работающих с продуктами компании, сообщает cybersecurity.ru.

Независимые эксперты по информационной безопасности говорят, что сама концепция группы быстрого реагирования, критически оценивающей инженерные и иные решения Google, является для сегодняшнего рынка уникальной. Для Google решение о создании Red Team - вынужденная мера, так как компания слишком часто становится мишенью для критики со стороны защитников частной жизни и мер по обеспечению конфиденциальности.

Также в Google рассказали о введении в штат такой единицы, как Data Privacy Engineer, задачи которого входит обеспечение соответствия продуктов интернет-компании самым высоким стандартам в области защиты пользовательской информации. Организационно, как новое подразделение, так и инженеры по безопасности данных будут равно независимы от всех продуктов компании и не будут входить в какое-то продуктовое направление. В требовании к кандидатам на должность Data Privacy Engineer сказано, что они должны обладать широкими знаниями в области функционирования современных браузеров, иметь опыт работы с корпоративными бизнес-процессами в области безопасности информации и обладать рядом других навыков.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Новый генератор картинок ChatGPT ловко фальсифицирует счета общепита

В прошлом месяце ИИ-бот ChatGPT обрел новый генератор изображений с выпуском модели 4o. Первые пробы показали, что создаваемые с его помощью картинки с вставленным текстом стали более реалистичными.

Пользователи ChatGPT теперь заставляют его генерировать ресторанные счета и получают вполне убедительные дипфейки.

Фото одной из таких фальшивок было опубликовано в X.

 

 

 

Другие юзеры подхватили идею, добились схожих результатов, а в одном из случаев тот же фейковый счет был для большего правдоподобия «испачкан»:

 

Наиболее реалистичный образец получился у французского специалиста в области ИИ — из-за эффекта помятой бумаги.

 

В TechCrunch тоже опробовали новинку и получили вполне сносный вариант для гриль-бара в Сан-Франциско. Правда, в итоговой сумме вместо точки стояла запятая, к тому же у ChatGPT, видимо, плохо с арифметикой, но эти огрехи при желании можно быстро исправить, конкретизировав подсказки, или с помощью графического редактора.

 

В комментарии для онлайн-издания представитель OpenAI заявила, что все изображения, генерируемые ИИ-ботом, снабжены соответствующими метаданными. Обнаружив нарушение пользовательского соглашения, компания «принимает меры» и «учится» на таких случаях.

В ответ на вопрос, зачем вообще позволять ChatGPT соглашаться на авантюры, попахивающие злоупотреблением, собеседница подчеркнула, что их цель — предоставить юзерам «как можно больше свободы творчества». К тому же фейковые счета необязательно нужны для мошенничества, их можно использовать в целях финансового ликбеза, а также для создания оригинальных картин или продуктовой рекламы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru