Правительство лейбористов секвестировало бюджет на развитие ИИ

Правительство лейбористов секвестировало бюджет на развитие ИИ

Правительство лейбористов секвестировало бюджет на развитие ИИ

Новое правительство Великобритании, сформированное Лейбористской партией после победы на июньских выборах, объявило о значительном — на 1,3 млрд фунтов стерлингов — снижении ассигнований на проекты по развитию искусственного интеллекта.

Газета The Guardian пишет, что были как минимум приостановлены два проекта, одобренные прошлым правительством во главе с Риши Сунаком в 2023 г.

Один из них предполагал создание экзафлопсного суперкомпьютера в Эдинбургском университете, на что было выделено 800 млн фунтов. Второй — выделял 500 млн фунтов на исследования и разработки в сфере ИИ для AI Research Resource.

При этом еще в конце июля министр науки Питер Кейл заявил, что «ставит ИИ в центр повестки дня правительства по стимулированию роста и улучшению наших государственных услуг». Также он анонсировал разработку нового плана действий по развитию ИИ с участием технологического предпринимателя Мэтта Клиффорда.

Как отметил руководитель отдела инноваций «ЭджЦентр» Евгений Морозов, Британия не достигла значительных успехов в области развития ИИ:

«В последние годы Великобритания сталкивается с рядом экономических трудностей, что, возможно, сказывается на её способности инвестировать в передовые технологии, включая искусственный интеллект».

Формальным поводом для приостановки данных проектов стало отсутствие данных статей в ежегодном плане расходов Министерства финансов. Журналисты The Guardian обнаружили, что проекты по развитию ИИ оказались не единственными, на которые не выделили финансирование, а общий объем превысил 22 млрд фунтов. Руководитель Комитета РУССОФТ по ИИ и GR-директор PIX Robotics Сергей Вотяков назвал возможной причиной также спад инвестиций на развитие больших языковых моделей в США.

По оценке Евгения Морозова, возможной причиной свертывания проектов может быть несоответствие между оценкой затрат и ожидаемым эффектом от внедрения ИИ, а также дефицит кадров:

«Инвестиции в искусственный интеллект требуют значительных ресурсов, и если прогнозируемая отдача не оправдывает затраты, то приоритеты могут смещаться в сторону других, более срочных направлений. Также стоит учитывать, что развитие ИИ требует не только финансовых вложений, но и наличия высококвалифицированных специалистов, которых может не хватать».

«Правительство принимает сложные и необходимые решения о расходах во всех департаментах перед лицом миллиардов фунтов необеспеченных обязательств. Это необходимо для восстановления экономической стабильности и выполнения нашей национальной миссии по росту», — такой комментарий издание получило от представителя британского правительства.

Представитель некоммерческой организации techUK Сью Дейли в комментарии для The Guardian призвала пересмотреть решение:

«В чрезвычайно конкурентной глобальной среде правительству необходимо быстро выдвигать новые предложения. В противном случае мы проиграем в конкуренции».

Также, по ее мнению, значительное свертывание финансирования приведет к росту эмиграции разработчиков, главным образом в США.

Как предупреждает Сергей Вотяков, данное решение может стать опасным прецедентом, в том числе и для России, где Европа, включая Великобританию, традиционно считается источником лучших регуляторных практик:

«Британия, как и Европа в целом, в силу большой зарегулированности темы с ИИ не показывает значимых достижений. Многие парламентарии России по привычке высматривают лучшие законодательные практики именно там, что является ошибкой и угрозой для развивающейся ИИ-отрасли России. Как раз 5 августа Роспотребнадзор заявил о подготовке предложений об ограничениях ИИ на основе европейского законодательства».

По мнению Евгения Морозова, для Британии данный шаг будет однозначно отрицательным, но стоит помнить, что ИИ — не панацея, и многие задачи можно до сих пор решать без использования искусственного интеллекта:

«Возможно, в Британии пока решили обойтись традиционными методами и инструментами для решения задач, что может свидетельствовать о наличии более приоритетных сфер для инвестиций. Например, здравоохранение, образование или инфраструктура могут требовать большего внимания и ресурсов в данный момент. А для России этот прецедент не опасен. Недавно был подписан Указ № 124 от 15.02.2024 об обновлении национальной стратегии развития искусственного интеллекта на период до 2030 года. Этот указ ещё больше подталкивает компании к развитию ИИ. Если что-то закреплено в законодательстве, то с очень высокой вероятностью это будет исполняться не на словах, а в реальности. Полагаю, правительством была проведена серьёзная аналитическая работа, которая на выходе дала понимание, что ИИ важен для нашей экономики и он принесёт реальный бизнес-эффект. Это означает, что Россия продолжит активно развивать эту область, несмотря на возможные экономические трудности в других странах».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru