Бесплатно и точка: школьники взломали бывший Макдональдс

Бесплатно и точка: школьники взломали бывший Макдональдс

Бесплатно и точка: школьники взломали бывший Макдональдс

Подростки нашли уязвимость в терминале самообслуживания одного из ресторанов быстрого питания “Вкусно и точка”. Сотрудники бывшей сети Макдональдс заметили взлом не сразу. В итоге школьники бесплатно питались месяц, заказав бургеров на 12 тысяч рублей.

Про историю со взломом ”Вкусно и точка” пишет Baza. Весь октябрь школьникам удавалось заказывать еду в одном из пунктов на Волоколамском шоссе совершенно бесплатно.

На камерах видеонаблюдения видно, как трое подростков 14-16 лет делают заказ через кассы самообслуживания. Набрав бургеров, они отключали аппарат, нажав на кнопку за технической дверцей.

Получив оплаченное картой, они снова включали терминал, и система возвращала деньги за последний заказ на пластик “клиента”.

Схема работала целый месяц. На аферистов обратила внимание не служба безопасности “Вкусно и точка”, а бухгалтер во время проверки кассовой отчетности.

Общий ущерб — 12 тысяч рублей. Баг уже исправили, будет ли ресторан обращаться в полицию — не уточняется.

Добавим, в сентябре стало известно о мошеннической схеме, построенной вокруг доставки из “Вкусно и точка”. Официально такого сервиса пока нет, этим пользуются аферисты.

Поддельный сайт принимает оплату за заказы, но саму еду не привозит. На странице мошенников даже есть служба поддержки, она ведет на фейковый Telegram-бот “Вкусно — и точка”.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Red Teaming в применении к ИИ требует переосмысления

Учения Generative Red Team, проведенные в рамках DEF CON 32, показали, что подобный способ оценки защищенности ИИ не дает адекватной картины. Эксперты предлагают создать систему, подобную CVE и учитывающую целевое назначение объектов анализа.

В мероприятии приняли участие (PDF) около 500 добровольцев с разным опытом аудита больших языковых моделей (БЯМ, LLM). В 48 случаях за выявленные недочеты были выплачены премии — суммарно $7850.

Тем не менее организаторы пришли к выводу, что метод Red Teaming в применении к ИИ необходимо усовершенствовать. Большой проблемой оказалось фрагментарность документации по LLM, которые к тому же разнятся по предусмотренному применению.

Без учета назначения ИИ-модели и сообразных встроенных ограничений результаты таких проверок на прочность могут ввести в заблуждение. Более того, отсутствие единых критериев оценки может привести к противоречивым заключениям.

Бурный рост и развитие ИИ-технологий создали новые риски, однако ни у кого пока нет четкого представления о том, как тестировать такие продукты и выстраивать их защиту.

Обеспечение безопасности LLM, по словам экспертов, — нескончаемый процесс. Умные помощники могут ошибаться, им свойственны галлюцинации, предвзятость (из-за неправильного обучения), уязвимость к инъекции стимула. Подобные системы бесперспективно защищать от взлома, однако его можно сделать более затратным, а последствия — краткосрочными.

Организаторы Generative Red Team призывают ИИ- и ИБ-сообщества совместными усилиями решить настоятельные проблемы. В противном случае техническая революция приведет к появлению ИИ-инструментов, на которые невозможно положиться; живой пример тому — скороспелка DeepSeek.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru