
Пользователям Facebook, просматривающим видеоролики с участием темнокожих граждан, предложили «продолжить смотреть видео с приматами». Оказалось, что конфуз произошёл по вине системы рекомендаций Facebook, основанной на искусственном интеллекте.
Само собой, представители соцсети сразу поняли, чем грозит такая ошибка (Black Lives Matter) и поспешили принести извинения. Более того, виновную систему временно отключили и инициировали внутреннее расследование.
Этот эпизод, кстати, стал очередным доказательством «расовой предвзятости ИИ». Именно так считают правозащитники, которые в прошлом уже не раз отмечали подобные ошибки систем. Например, ранее распознающий лица ИИ ошибочно называл афроамериканцев преступниками.
В 2015 году, когда проблема ещё не была настолько актуальна, приложение Google Photos отмечало темнокожих людей на фотографиях «гориллами». А в мае Twitter выявил расовую предвзятость в механизме кадрирования фото.
«Рекомендация посмотреть другие ролики с ’’приматами’’ возникла из-за ошибки алгоритма, которая не имела ничего общего с содержанием видеороликов. Мы полностью отключили эту систему, чтобы выяснить причину и в дальнейшем не допустить подобной оплошности», — заявил пресс-секретарь Facebook изданию «Би-би-си».
«Как уже отмечалось ранее, мы знаем, что искусственный интеллект несовершенен, поэтому нам предстоит ещё много работы над его развитием и улучшением».