66% родителей готовы блокировать доступ детей к нежелательному контенту

66% родителей готовы блокировать доступ детей к нежелательному контенту

Российские родители обеспокоены доступностью для детей нежелательной информации в Сети. К этому выводу пришла международная антивирусная компания ESET в ходе опроса интернет-пользователей.

Респондентам было предложено ответить на вопрос «Какая функция “Родительского контроля”, по вашему мнению, наиболее необходима?» 

Большинство респондентов проголосовали за возможность блокировки нежелательных сайтов – такой вариант ответа выбрало 46 % опрошенных. Еще 20 % родителей беспокоят риски, связанные с мобильным контентом – их вариант «Блокировка мобильных приложений». 

Примерно треть родителей заинтересованы в функциях, не связанных с онлайн-рисками. 21 % респондентов считают наиболее важной функцию «Определение местоположения ребенка», 13 % – «Срочное сообщение от родителей».  

«Большая часть родителей высоко оценивает контентные риски Сети и стремится минимизировать их с помощью соответствующих программных продуктов. Но полезные свойства приложений для родительского контроля этим не ограничиваются. Так, мобильное решение ESET NOD32 позволяет оперативно связаться с ребенком и отслеживать его местоположение, что актуально для детей, гуляющих или возвращающихся из школы без сопровождения взрослых», – комментирует Алексей Оськин, руководитель отдела технического маркетинга ESET Russia.

Почти половина участников опроса (49 %) считает, что функция родительского контроля нужна до достижения ребенком 14 лет. 39 % респондентов выбрали вариант «До совершеннолетия». 11 % опрошенных не готовы оставить ребенка без опеки – их вариант «До 21 и дольше». Всего 1 % считает, что «Родительский контроль» достаточно использовать до семи лет – по их мнению, потом дети сами сориентируются. 

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru