L’algorithme de Twitter privilégie les photos de jeunes femmes blanches et fines

L’algorithme de Twitter privilégie les photos de jeunes femmes blanches et fines

Image :

© Joshua Hoehne/Unsplash

photo de profil

Par Julie Morvan

Publié le

Le biais discriminant a été identifié par un étudiant suisse.

Lorsque l’on poste une photo sur Twitter, son aperçu est systématiquement recadré pour apparaître dans le fil d’actualité. C’est l’algorithme qui choisit la portion de l’image à afficher sur le post : on appelle ça l’auto-cropping, ou recadrage automatique. Problème : cet algorithme était discriminant et favorisait les visages de femmes blanches à d’autres.

À voir aussi sur Konbini

Twitter a donc affirmé avoir abandonné l’intelligence artificielle discriminante, proposant un concours ouvert à tou·te·s pour améliorer celle-ci. L’Algorithmic Bias Bounty Challenge, organisé du 30 juillet au 7 août 2021, donne accès au code de l’outil de recadrage visuel de Twitter. “Votre mission consiste à démontrer les torts potentiels qu’un tel algorithme peut causer”, résume le site officiel. Parmi ces torts, qu’ils soient intentionnels ou non : dénigrement, stéréotypes, sous-représentation, invisibilisation.

Les gagnant·e·s du concours ont été révélé·e·s lundi 9 août à la Defcon, l’une des plus grandes conventions de hackers. En première position, on retrouve Bogdan Kulynych (@hiddenmarkov sur Twitter), un étudiant suisse en sécurité informatique.

Chargement du twitt...

“La première place revient à @hiddenmarkov dont la participation souligne à quel point appliquer des filtres de beauté peut jouer sur le modèle de notation interne de l’algorithme. Cela montre comment le modèle algorithmique amplifie les biais du monde réel et les standards sociaux de beauté.”

Son constat : l’algorithme de recadrage d’image de Twitter privilégie les personnes à l’apparence plus jeune et plus fine que d’autres. Pour cela, il a utilisé une technique de deepfake pour auto-générer plusieurs visages différents et tester les préférences de l’intelligence artificielle pour l’un ou pour l’autre, rapporte Wired.

“En résumé, plus une personne apparaît fine, jeune et féminine sur l’image, plus elle sera favorisée”, résume Patrick Hall, l’un des quatre juges de la compétition. Les trois autres lauréat·e·s ont eux aussi dévoilé d’autres biais discriminants de l’algorithme : la marginalisation de personnes âgées et porteuses de handicap, la préférence pour les alphabets latins aux alphabets arabes, et la favorisation d’émojis à la peau claire.

Un avis à donner sur l’algorithme de Twitter ? Vous pouvez nous écrire à : hellokonbinitechno@konbini.com.