В 2024 году в России на 15% выросло количество случаев кибербуллинга

В 2024 году в России на 15% выросло количество случаев кибербуллинга

В 2024 году в России на 15% выросло количество случаев кибербуллинга

По данным мониторингового центра «Безопасность 2.0», число проявлений кибербуллинга в России за 2024 год увеличилось на 15% по сравнению с предыдущим годом. Одной из частых причин цифровой травли становится контент, который публикуют родители.

Как сообщили «Известиям» в центре «Безопасность 2.0», на кибербуллинг приходится 23% всех выявленных сетевых конфликтов.

С различными его формами сталкивались 75% детей. Родительские публикации нередко становятся поводом для насмешек сверстников, которые могут перерасти в издевательства.

«Желая поделиться моментами из жизни детей, родители публикуют фото, видео или личную информацию в соцсетях, не всегда задумываясь о последствиях. Например, снимки в неловких ситуациях или видео с семейных праздников могут использоваться одноклассниками для насмешек», — поясняет руководитель мониторингового центра «Безопасность 2.0» и первый вице-президент Российского фонда мира Елена Сутормина.

По словам психолога Татьяны Наумовой, начиная с шести лет ребенок уже осознает социальные нормы, и публикации родителей без его согласия могут стать для него серьезной проблемой. «Когда ребенок идет в школу, ему важно мнение окружающих. Если родители размещают контент, который вызывает насмешки сверстников, ему приходится с этим справляться», — отмечает эксперт.

Однако причиной травли могут быть не только действия родителей, но и самих детей. Публикация личных данных семьи или демонстрация уровня благосостояния может спровоцировать агрессию со стороны окружающих. Кроме того, подростки часто становятся мишенью манипуляций, а их доверчивостью пользуются криминальные группы, распространяющие дипфейки и фейковую информацию.

В Госдуму внесен законопроект о профилактике буллинга, включая его цифровые формы. Документ проходит процедуру согласования. На данный момент единственный известный случай привлечения организатора кибертравли к ответственности связан с административным штрафом, наложенным на студентку московского вуза за оскорбления однокурсников в соцсетях.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru