Старшеклассников Ингушетии обучат кибербезопасности

Старшеклассников Ингушетии обучат кибербезопасности

Старшеклассников Ингушетии обучат кибербезопасности

Власти Ингушетии со следующего учебного года обеспечат старшеклассников занятиями по кибербезопасности. Соответствующее распоряжение местные власти получили от главы республики Юнус-Бека Евкурова.

Детей хотят обучить азам программирования, объяснить, как работать с социальными сетями, а также научить распознавать фейковые новости.

Эту программу Евкурову предложил Юрий Шаркович, возглавляющий общественное объединении «Гражданин».

После встречи с Шарковичем глава Ингушетии поручил изучить уже составленный план работ, а также к началу учебного года развесить во всех школах республики плакаты по кибербезопасности. Учителя должны будут проводить занятия для старшеклассников по данной теме.

Также плакаты по кибербезопасности появятся на вокзалах, в медицинских учреждениях, торговых центрах и других общественных местах.

«Евкуров также обратил внимание на возможность участия в этой работе интернет-дружин, которые в настоящее время создаются в республике для информационного противодействия террористической идеологии в социальных сетях», — передают СМИ слова пресс-службы.

Сегодня также стало известно, что издательство «Русское слово» разработало уникальный учебно-методический комплект «Кибербезопасность» для школьников. Этот комплекс на данный момент не имеет аналогов среди образовательных программ России.

Новая разработка позволит школьникам погрузиться в мир интернета, познакомиться с его особенностями и возможностями.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Microsoft: системы на базе ИИ никогда не станут абсолютно безопасными

Команда Microsoft AI Red Team (AIRT) подытожила свой опыт тестирования 100 продуктов, созданных в компании на основе генеративного ИИ, и пришла к выводу, что обеспечение безопасности таких систем — нескончаемый процесс.

Из-за фундаментальных ограничений ИИ-моделей угрозы вроде инъекции стимула и джейлбрейка в этой сфере неистребимы.

Однако такие атаки можно сделать более затратными — как и в случае с другими ИТ-рисками, которые удается снизить, применяя, к примеру, тактику эшелонированной защиты (defense-in-depth) или следуя принципам конструктивной безопасности (security-by-design).

Делясь опытом, в Red Team также отметили (PDF), что для выстраивания защиты ИИ-системы важно понимать ее возможности и учитывать сферу применения. Так, большие языковые модели (БЯМ, LLM) склонны слепо следовать инструкциям пользователя, и их легко обмануть, спрятав вредоносный контент в большом объеме безобидного текста при вводе.

Также атака на ИИ-помощника по литературному творчеству вряд ли приведет к серьезным последствиям, а в случае с LLM, предназначенной для анализа историй болезни, может нанести вред здоровью пациентов и поставить крест на репутации медучреждения.

Чтобы заставить LLM выдать вредный совет, необязательно проводить градиентные состязательные атаки. Тот же эффект можно получить более дешевым способом, манипулируя интерфейсом либо введя в заблуждение модель языка и технического зрения.

 

Еще одно важное наблюдение, которым поделились специалисты: использование ИИ увеличивает существующие риски и создает новые.

Напомним, вопросы использования ИИ недавно обсуждались в ходе Открытой конференции Института системного программирования РАН им. В. П. Иванникова. Участники пленарной дискуссии сошлись во мнении, что внедрение ИИ-технологий тормозят проблемы доверия и безопасности таких сервисов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru