Стартовала программа раннего тестирования PT Data Security

Стартовала программа раннего тестирования PT Data Security

Стартовала программа раннего тестирования PT Data Security

Positive Technologies открывает программу раннего тестирования единого решения для защиты данных — PT Data Security.  Первая тестовая версия продукта была представлена на ежегодной продуктовой конференции Positive Security Day в октябре.

PT Data Security позволяет в реальном времени и с минимальным участием человека вести мониторинг состояния инфраструктуры хранения и обработки данных.

Продукт может определять как критически значимые элементы, которые содержат наиболее чувствительную для бизнеса информацию, так и анализировать матрицу доступа к данным и обращения к ним.

«Ранние ПТашки» — программа предварительного тестирования PT Data Security — стартует 25 ноября 2024 года и продлится шесть месяцев. Ее участники получат бесплатный доступ к ранним версиям продукта. Команда PT Data Security учтет их пожелания к функциональным возможностям будущего решения и сможет использовать их данные для обучения механизма классификации. Члены программы также получат скидки на покупку лицензии после выхода коммерческой версии. Для участия в программе можно оставить заявку.

В рамках программы Positive Technologies предлагает клиентам, партнерам и специалистам по ИБ несколько форматов участия. Один из них предполагает исследования продукта, в ходе которых можно изучить ранний прототип решения и передать команде R&D предложения по усовершенствованию.

Второй формат — глубинные интервью. Третий формат участия в программе направлен на то, чтобы помочь специалистам Positive Technologies усовершенствовать классификацию данных и обогатить новый продукт знаниями о том, как организованы процессы и технологическая инфраструктура хранения данных в разных компаниях.

Данные, собранные во время тестирований, позволят Positive Technologies выпустить продукт, который будет адаптирован к различным сферам деятельности. Так, классификатор в коммерческой версии PT Data Security будет включать не только типовые данные (например, персональные данные сотрудников), но и специфические профили для разных отраслей и функциональных подразделений.

«Привлечение сторонних экспертов и компаний для тестирования продукта до его выхода на рынок пока не очень распространено в B2B-сегменте России. Однако мы считаем, что такой подход позволяет избежать ситуаций, когда решение выходит на рынок сырым и его доработка происходит уже в продуктиве с помощью многочисленных патчей и обновлений. У нас амбициозная цель — создать продукт, который будет закрывать все вопросы о защите данных и устранит недостатки сразу нескольких классов решений. Без диалога с пользователями и обсуждения реальных проблем — это трудновыполнимая задача», — отметил Виктор Рыжков, руководитель развития бизнеса по защите данных Positive Technologies.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Новый генератор картинок ChatGPT ловко фальсифицирует счета общепита

В прошлом месяце ИИ-бот ChatGPT обрел новый генератор изображений с выпуском модели 4o. Первые пробы показали, что создаваемые с его помощью картинки с вставленным текстом стали более реалистичными.

Пользователи ChatGPT теперь заставляют его генерировать ресторанные счета и получают вполне убедительные дипфейки.

Фото одной из таких фальшивок было опубликовано в X.

 

 

 

Другие юзеры подхватили идею, добились схожих результатов, а в одном из случаев тот же фейковый счет был для большего правдоподобия «испачкан»:

 

Наиболее реалистичный образец получился у французского специалиста в области ИИ — из-за эффекта помятой бумаги.

 

В TechCrunch тоже опробовали новинку и получили вполне сносный вариант для гриль-бара в Сан-Франциско. Правда, в итоговой сумме вместо точки стояла запятая, к тому же у ChatGPT, видимо, плохо с арифметикой, но эти огрехи при желании можно быстро исправить, конкретизировав подсказки, или с помощью графического редактора.

 

В комментарии для онлайн-издания представитель OpenAI заявила, что все изображения, генерируемые ИИ-ботом, снабжены соответствующими метаданными. Обнаружив нарушение пользовательского соглашения, компания «принимает меры» и «учится» на таких случаях.

В ответ на вопрос, зачем вообще позволять ChatGPT соглашаться на авантюры, попахивающие злоупотреблением, собеседница подчеркнула, что их цель — предоставить юзерам «как можно больше свободы творчества». К тому же фейковые счета необязательно нужны для мошенничества, их можно использовать в целях финансового ликбеза, а также для создания оригинальных картин или продуктовой рекламы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru