Skybox Security прекратила работу: компания закрыта, активы проданы Tufin

Skybox Security прекратила работу: компания закрыта, активы проданы Tufin

Skybox Security прекратила работу: компания закрыта, активы проданы Tufin

Компания Skybox Security, специализировавшаяся на кибербезопасности, внезапно прекратила свою деятельность и уволила всех сотрудников в Израиле и США. Строго перед этим бизнес-активы и технологии Skybox продали её конкуренту — компании Tufin.

Решение Skybox Security — это комплексная платформа для управления сетевой безопасностью с фокусом на видимости, анализе и управлении рисками.

Согласно сообщениям из штаб-квартиры Skybox в Израиле, генеральный директор Мордехай Розен объявил о закрытии и ликвидации компании в конце февраля. На тот момент это коснулось около 300 сотрудников: 100 в Израиле и 200 в США.

Официальный сайт Skybox Security перестал работать, а представители компании избегают комментировать ситуацию.

За время своего существования Skybox Security получила значительную финансовую поддержку. По разным данным, общий объём привлечённых инвестиций составил около $335 млн, включая $50 млн, полученные еще в феврале 2023 года.

Компания Tufin намерена обеспечить поддержку пользователей продуктов Skybox. Генеральный директор Tufin Рэй Бранкато подчеркнул, что его компания финансово стабильна и готова помочь клиентам Skybox в переходный период.

«24 февраля 2025 года Skybox приняла трудное решение о немедленном закрытии, — заявил Бранкато. — Мы понимаем, что это непростое время для многих, и хотим заверить клиентов Skybox: Tufin поможет им в этом процессе».

Специалисты уже запустили соответствующую программу «Tufin ExpressPath for Skybox Customers», которая предлагает необходимые инструменты для безопасного перехода без сбоев в работе.

«Основная особенность решений Skybox Security — это приоритизация устранения уязвимостей через потенциально возможные опасные маршруты кибератак. Для крупных компаний это особенно важно, когда невозможно устранить все и надо правильно и быстро расставить приоритеты, — комментирует Анастасия Важенина, руководитель практики развития метапродуктов Positive Technologies. — Это позволяет сосредоточиться на устранении недочетов, которые представляют наибольший риск для ключевых активов. В основе MaxPatrol Carbon похожий подход.  Однако метапродукт учитывает при построении маршрутов большую вариативность действий хакера при атаке и более обширный контекст инфраструктуры: сетевую достижимость, уязвимости, ошибки конфигураций, избыточные привилегии на пути атаки. Это позволяет точнее и быстрее находить больше различных потенциальных маршрутов атак на целевые системы, оценивать уровень их опасности, в т. ч. время реализации атаки, и сформировать полный список задач для нейтрализации этих маршрутов».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Фантазер ChatGPT выставил примерного семьянина детоубийцей

Европейские правозащитники из НКО noyb подали норвежскому регулятору жалобу на OpenAI. Ее ИИ-собеседник вновь выдал неверную информацию о реальном человеке — заявил, что тот осужден за убийство своих сыновей и уже сидит.

Поскольку ChatGPT научился выполнять поиск по запросу, житель Норвегии Арве Хольмен (Arve Hjalmar Holmen) решил выяснить, что можно узнать о его персоне, задав такому помощнику вопрос «Кто такой…?» и добавив имя.

Пространный ответ поверг его в шок. Это была страшная сказка, в которой вымысел сплетен с реальными фактами.

Человек с таким именем, по версии ChatGPT, приобрел известность из-за трагического события. В 2020 году два брата, семи и десяти лет, якобы утонули в пруду недалеко от своего дома в Трондхейме.

В их смерти признали виновным отца, который попытался избавиться и от третьего сына. В итоге детоубийцу посадили на 21 год (максимальный срок в Норвегии).

Единственное, что соответствовало действительности в этом «ужастике», порожденном галлюцинациями ИИ,— это пол и возраст детей Хольмена, а также название города, где он живет со своей семьей.

В пользовательском соглашении OpenAI мелким шрифтом прописано, что ChatGPT может ошибаться и важную информацию нужно проверять, однако удалить ложные сведения из систем компании неимоверно трудно. Разработчик, по его словам, может лишь заблокировать запросы со стимулами, возвращающими данные, способные навредить репутации и даже разрушить чью-то жизнь.

Тем не менее популярный ИИ-бот перестал рассказывать страшноватые небылицы о Хольмене — видимо, в связи с недавним апдейтом. Однако активисты из noyb, которые теперь представляют интересы норвежца, намерены добиться кардинальных изменений, а также штрафных санкций за то, что OpenAI нарушает требования GDPR о точности персональных данных.

Скандальные ошибки в выдаче ChatGPT по запросам о реальных персонах уже не раз подводили разработчика. Несмотря на угрозы пострадавших, подобные случаи неумышленной дефамации никогда не доходили до суда.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru