Digital Footprint Intelligence получил функцию защиты бренда от фрода

Digital Footprint Intelligence получил функцию защиты бренда от фрода

Сервис Kaspersky Digital Footprint Intelligence, предназначенный для отслеживания цифровых угроз, получил важное обновление. Специалисты «Лаборатории Касперского» добавили функцию защиты бренда от мошенничества.

По словам разработчиков, сервис теперь может отслеживать, детектировать и удалять фейковые аккаунты в социальных сетях, а также мобильные приложения, использующие чужие бренды.

Статистика Kaspersky говорит о том, что в прошлом году удалось заблокировать более 500 миллионов попыток перехода на фишинговые сайты. А этот вид киберугроз, напомним, остаётся наиболее опасным.

Имитируя профили компаний в соцсетях, злоумышленники могут продавать контрафактную продукцию и даже собирать от имени известных брендов учётные данные пользователей.

В этой ситуации на защиту компаний может стать сервис Kaspersky Digital Footprint Intelligence, который помогает отслеживать цифровой след и фиксировать потенциальные риски.

Kaspersky Digital Footprint Intelligence анализирует не только открытую Сеть, но и площадки даркнета, выдавая заказчикам полную информацию о вредоносной активности, связанной с их организациями.

В прошлом году мы обозревали рынок систем защиты бренда (Brand Protection). Рекомендуем ознакомиться всем интересующимся.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

В России начнут маркировать контент, сгенерированный нейросетью

Материалы, созданные нейросетью, российские сервисы будут автоматически маркировать четкими и заметными графическими знаками. По словам Антона Немкина, члена комитета Госдумы по информационной политике, это поможет усмирить бесконтрольное использование ИИ.

Начальник управления киберразведки и цифровой криминалистики Angara Security Никита Леокумович сообщил изданию «КоммерсантЪ», что стремительно развивающийся искусственный интеллект несёт в себе опасность.

Например, он может нарушать нормы морали и права человека, создавая вымышленные факты и генерируя дипфейки. Именно поэтому очень важно маркировать материалы, сгенерированные с помощью нейросети, включая текст, изображения и видео.

Огромное количество исходных кодов нейросети доступно любому пользователю. Возможно, из-за этого число мошенников, использующих ИИ, заметно выросло.

Сейчас есть возможность проверить, сгенерировано ли изображение с помощью искусственного интеллекта или создано человеком. Пользователю достаточно загрузить картинку на сервис (есть как платные, так и бесплатные), где алгоритм, основанный на ИИ, даст ответ.

По подсчётам компании «Диалог Регионы», около 12 миллионов дипфейков было обнаружено на просторах рунета в 2023 году. Исследователи предполагают, что к 2024 году это число вырастет до 15 млн.

Ярослав Шицле, руководитель направления «Разрешение IT & IP споров» юридической фирмы «Рустам Курмаев и партнеры» предполагает, что если сервисы не будут придерживаться требований и автоматически маркировать создаваемый ИИ контент, их будут блокировать или даже привлекать к ответственности.

О том, что вид графических символов на материалах может повлиять на рекламный рынок, рассказал управляющий партнер агентства PRT Edelman Глеб Сахрай. Пока неизвестно, насколько большой будет надпись, и как будут относиться люди к контенту, зная, что он сгенерирован нейросетью. Возможно, рекламные агентства снова прибегнут к помощи копирайтеров и дизайнеров.

Примечательно, что подобный закон в Евросоюзе уже действует с марта этого года. По сообщениям компании OpenAI, изображения, созданные ChatGPT, уже маркируются. Видео, сгенерированные встроенными алгоритмами в TikTok, помечаются платформой.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru