- Dronning Margrethe avviser at foreldrene hadde nazisympatier - 05.11.2024
- Fordømmer angrep på hindutempel i Canada - 05.11.2024
- FN: Menneskesmuglere senket båt med vilje – minst 25 døde - 05.11.2024
En talsperson for selskapet sier det var en klar uakseptabel feil som hadde oppstått og at programvaren som anbefaler brukerne videoer, derfor er blitt deaktivert.
– Vi beklager overfor alle som kan ha sett disse støtende anbefalingene, heter det i en uttalelse som Facebook har sendt til nyhetsbyrået AFP.
– Vi skrudde av hele anbefalingstjenesten med én gang vi innså hva som hadde skjedd, slik at vi kan granske årsaken og hindre dette fra å skje igjen, uttaler selskapet videre.
Ansiktsgjenkjenningsprogramvare har blitt kritisert av forkjempere for menneskerettigheter og andre, som har vist til at det kan oppstå problemer med nøyaktigheten, spesielt når det gjelder mennesker som ikke er hvite.
De siste dagene har Facebooks brukere som har sett videoen «White man calls cops on black men at marina» fra juni 2020 fra den britiske tabloidavisen Daily Mail, fått en automatisk melding som spør om de ønsker å «fortsette å se videoer om primater», ifølge New York Times.