Алгоритм рекомендацій Facebook запитав у користувачів, які переглянули відео з чорношкірими чоловіками, чи хочуть вони "продовжувати дивитися відео про приматів".
Facebook повідомив BBC, що це "явно неприпустима помилка", відключив систему і почав розслідування.
"Ми приносимо вибачення всім, хто, можливо, бачив ці образливі рекомендації, - йдеться у заяві. - Рекомендація приматів була алгоритмічною помилкою і не передавала зміст відео. Ми відключили функцію рекомендацій по темам, щоб з'ясувати причину і запобігти повторенню помилки. Як ми вже говорили, ми знаємо, що наш ШІ недосконалий, і нам ще належить просунутися вперед в його поліпшенні".
Подібна помилка - не перше расове упередження штучного інтелекту. У 2015 році програма Google Photos позначило фотографії чорношкірих людей як "горил".
- Раніше Twitter заплатив українцю за те, що він виявив расистський алгоритм обробки фото в соцмережі.
Найцікавіші історії та новини дня тепер в Telegram! Підписуйтесь на канал theLime і дізнавайтеся про них швидше.