Совет Ислингтона оштрафовали на 70 тыс. фунтов за утечку данных

Совет Ислингтона оштрафовали на 70 тыс. фунтов за утечку данных

Совет Ислингтона оштрафовали на 70 тыс. фунтов за утечку данных

Совет округа Ислингтон, что на севере Лондона, признан виновным в нарушении защиты информации почти 90 тыс. человек. Чиновники не обеспечили безопасность транспортного приложения и теперь должны будут заплатить большой штраф, пишет газета Evening Standard.

В 2012 в Ислингтоне был запущен веб-сервис для управления парковкой. Приложение позволяет людям, получившим штраф за неправильную парковку, войти в систему, используя регистрационные данные своего автомобиля. На сайте доступны кадры системы видеонаблюдения, а также видео предполагаемых нарушений. Затем водители могут обжаловать эти штрафы, отправив в Совет по почте или по e-mail подтверждающую информацию, включая сведения о проблемах со здоровьем, об инвалидности или финансах. Полученная информация сохраняется на ресурсе в специальных закрытых папках, пишет infowatch.ru.

Таким образом, транспортное приложение аккумулировало различную информацию, включая данные об автомобиле, имя и адрес водителя, а также медицинские и финансовые сведения.

В октябре 2015 г. представитель общественности уведомил Совет Ислингтона, что к папкам с информацией о штрафах может получить доступ любой желающий – достаточно немного скорректировать URL-адрес.  К тому времени парковочный ресурс уже успел выписать 825 тыс. штрафов и получить 270 тыс. обращений, уточняет The Register. По состоянию на 25 октября 2015 г., когда была проведена проверка, система содержала личные данные 89 тыс. человек. Внутреннее расследование показало, что 119 документов, относящихся к 71 человеку, были доступны в общей сложности 235 раз для 36 уникальных IP-адресов.

Британское управление комиссара по информации (ICO) установило, что Совет Ислингтона не принял надлежащих технических мер, чтобы закрыть несанкционированный доступ к ресурсу, и назначил штраф в размере 70 тыс. фунтов стерлингов за нарушение закона о защите информации (Data Protection Act).  ICO выяснило, что функционал просмотра папок был неправильно сконфигурирован на веб-сервере и что у приложения были конструктивные дефекты.

Совет согласился с наложенным штрафом и намерен воспользоваться возможностью его снижения. В случае быстрой оплаты чиновники северного Лондона получат скидку 20% и, таким образом, внесут только 56 тыс. фунтов.

Власти Ислингтона имеют богатую историю нарушений в области защиты информации. Ранее ICO уже штрафовал  их на 70 тыс. фунтов за утечку конфиденциальной информации тысяч жителей округа, включая сведения о психическом здоровье. В начале 2017 г. Совет скомпрометировал личные данные 559 бывших сотрудников. 

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Киберпреступники применяют ИИ в половине техник кибератак

Как показало исследование Positive Technologies, киберпреступники начали активно внедрять искусственный интеллект (ИИ) в свою деятельность. Уже в самом ближайшем будущем киберпреступники смогут найти ИИ применение во всех тактиках из базы MITRE ATT&CK, а также в 59% ее техник.

Как отмечают авторы исследования, до недавнего времени злоумышленники применяли ИИ не очень активно: он использовался лишь в 5% техник MITRE ATT&CK и еще для 17% применение такого инструментария признавалось перспективным.

Все изменило появление больших языковых моделей (LLM) и инструментов вроде ChatGPT, которые легальны и общедоступны. После выхода ChatGPT 4 количество фишинговых атак за год выросло в 13 раз.

Как особо обратили внимание аналитики, популярности инструментов ИИ у киберпреступников способствует также тот факт, что LLM не имеют ограничений, которые бы препятствовали генерации с их помощью вредоносного кода или инструкций. В итоге такие инструменты довольно широко используются для создания различных программных зловредов.

Обращение к большим языковым моделям помогает начинающим киберпреступникам,  ускорять подготовку к атакам. Злоумышленник может с их помощью уточнить, не упустил ли он чего-то или изучить различные подходы к реализации определенных шагов в ходе той иной акции.

Продвинутые инструменты поиска помогут начинающему злоумышленнику подобрать необходимую информацию и найти ответы на базовые вопросы. Особенно авторы исследования обращают внимание на ситуацию в развивающихся странах, где компании и госучреждения защищены хуже.

Среди методов атак, где малоопытные злоумышленники применяют ИИ наиболее широко, авторы исследования выделили фишинг, социальную инженерию, атаки на веб-приложения и слабые пароли, SQL-инъекции, а также сетевой сниффинг. Они не требуют глубоких технических знаний и их легко осуществлять с помощью публично доступных инструментов.

Благодаря ИИ уже на текущем уровне технологий можно автоматически генерировать фрагменты вредоносного кода, фишинговые сообщения, разного рода дипфейки, которые делают более убедительными привычные сценарии атак социальной инженерии, автоматизировать отдельные этапы кибератак, среди которых авторы исследования особо выделили управление ботнетами. Однако развить и создать новые инструменты ИИ для автоматизации и масштабирования кибератак пока могут только опытные злоумышленники.

«Пока что ни об одной атаке нельзя сказать, что она была полностью проведена искусственным интеллектом. Тем не менее мир информационной безопасности постепенно движется к автопилотированию как в защите, так и в атаке. Мы прогнозируем, что с течением времени киберпреступные инструменты и модули с ИИ будут объединяться в кластеры для автоматизации все большего числа этапов атаки, пока не смогут покрыть большую часть шагов», — предупреждают авторы исследования.

 

Если злоумышленникам удастся автоматизировать проведение атак на выбранную цель, следующим шагом может стать применение инструментов для самостоятельного поиска целей. Опытным киберпреступникам ИИ даст инструментарий для сбора данных о потенциальных жертвах из разных источников, причем в короткие сроки.

ИИ активно применяется при эксплуатации уязвимостей, причем потенциал данных инструментов реализован еще далеко не полностью. ИИ помогает создавать ботов, с высокой степенью точности имитирующих поведение людей. Активно используются в ходе атак и дипфейки, которые уже достигли довольно высокого уровня правдоподобия. Их применяют в ходе атак как на обычных людей, так и на компании.

«Высокий потенциал искусственного интеллекта в кибератаках — не повод для паники, — комментирует ситуацию аналитик исследовательской группы департамента аналитики Positive Technologies Роман Резников. — Нужно реалистично смотреть в будущее, изучать возможности новых технологий и системно заниматься обеспечением результативной кибербезопасности. Логичная контрмера атакующему ИИ — более эффективный ИИ в защите, который поможет преодолеть нехватку специалистов для защиты от кибератак через автоматизацию многих процессов».

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru