Вам не понравится: стартапы критикуют инициативу по отключению рекомендаций

Вам не понравится: стартапы критикуют инициативу по отключению рекомендаций

Вам не понравится: стартапы критикуют инициативу по отключению рекомендаций

Разработчики алгоритмов для сайтов и сервисов выступили против законопроекта, который позволяет пользователям отключать рекомендации. В последнем варианте инициатива коснется всех ресурсов и приложений. Авторы обещали подумать.

Законопроект неделю назад обсуждали на площадке Фонда развития интернет-инициатив (ФРИИ). По задумке авторов, онлайн-платформы обязаны:

  1. Дать пользователю возможность отключать алгоритм, который формирует в ленте специально подобранный контент;
  2. Предупреждать клиентов о “включенных” рекомендациях.

Такая перспектива беспокоит технологические стартапы, для которых рекомендательный алгоритм — ядро сервиса. Об этом в своем Telegram-канале написал автор законопроекта, единоросс Антон Горелкин.

Сначала говорили, что под действие законопроекта попадут только соцсети, новостные и поисковые агрегаторы, аудиовизуальные сервисы.

Источники “Ъ”, побывавшие на встрече с депутатами, утверждают, что в последней версии инициатива регулирует технологию, а не отдельные категории информационных ресурсов или сервисов. То есть под закон попадает любая компания.

По данным “Ъ”, на встрече также были представители VK и “Яндекс”.

Ключевая проблема в том, что документ не определяет четко субъект регулирования, рассказывает директор по правовым инициативам во ФРИИ Александра Орехович.

“Сейчас круг субъектов регулирования не ограничивается только значимыми ресурсами, а фактически включает любые приложения и интернет-сайты вне зависимости от размера аудитории, — говорит Орехович. — Кроме того, формально юридически под регулирование подпадают компании, в которых рекомендательные технологии используются исключительно по запросу самих пользователей, то есть человек заходит на сайт и предоставляет информацию о себе или доступ к ней именно с целью разработки рекомендаций, например, по развитию карьеры”.

Сам депутат Горелкин еще в апреле писал, что “законопроект готов на 99%”.

“Остался один дискуссионный вопрос. Мы ждем, что этот один процент мы доработаем в этом месяце”, — приводит весеннюю цитату депутата “Ъ”.

После встречи с резидентами фонда, инициатор законопроекта об отключении рекомендаций обещал учесть критику.

“Все опасения и предложения зафиксировал, будем с ними работать”, — написал Горелкин в Telegram.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер разработал комплексную модель угроз для ИИ

Эксперты Сбера разработали модель угроз для искусственного интеллекта (включая генеративный ИИ), охватывающую все этапы жизненного цикла таких систем — от подготовки данных до интеграции в приложения.

Документ опубликован на портале киберграмотности Сбера «Кибрарий». Он не привязан к конкретной отрасли и предназначен для оценки потенциальных уязвимостей, адаптации защитных механизмов и минимизации рисков.

В исследовании описаны 70 угроз, связанных с применением как предиктивных, так и генеративных моделей ИИ. Особое внимание уделено рискам, возникающим при использовании генеративных систем, чье распространение стремительно растёт. Для каждой угрозы определены затрагиваемые свойства информации — конфиденциальность, целостность и доступность, а также объекты воздействия, будь то обучающие датасеты или модели с открытым исходным кодом. Модель включает схему взаимодействия таких объектов и их детальное описание.

«Сбер активно применяет технологии искусственного интеллекта в бизнес-процессах и глубоко понимает возникающие угрозы. В ответ на эти вызовы мы создали первую в России модель киберугроз, охватывающую весь спектр рисков, связанных с разработкой и использованием ИИ. Этот документ позволит организациям любой сферы — от финансов до госструктур и промышленности — системно оценивать уязвимости, настраивать защитные меры и снижать возможные потери», — отметил вице-президент Сбера по кибербезопасности Сергей Лебедь.

Ключевые риски при использовании ИИ — это принятие ошибочных решений и утечки данных, использованных при обучении моделей. Кроме того, ИИ активно используют киберпреступные группировки в своих целях.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru