AccueilInternet

L’algorithme de YouTube recommande des vidéos contraires à ses propres règles

L’algorithme de YouTube recommande des vidéos contraires à ses propres règles

avatar

Par Pierre Bazin

Publié le

Vidéos conspirationnistes, sexuelles, violentes : les contenus supposés interdits sont mis en valeur par la plateforme elle-même.

Il vous est sûrement déjà arrivé, au fil de vos pérégrinations sur YouTube, de tomber sur d’étranges vidéos recommandées, en lecture aléatoire ou affichées sur les côtés. Sans aucune raison valable ou évidente, la plus grande plateforme d’hébergement de vidéos vous propose ainsi des contenus bizarres, aux origines douteuses voire violents.

À voir aussi sur Konbini

Le sujet a fait l’objet d’une étude de grande ampleur par la Mozilla Foundation (aussi derrière Firefox). Intitulée “YouTube Regrets Report”, elle se base sur des échantillons, données et témoignages recueillis pendant plus d’un an via l’extension RegretsReporter. Cet add-on permet aux utilisateurs de signaler une recommandation (YouTube principalement) qu’ils jugent inintéressante ou inappropriée.

Plus de 37 000 utilisateurs, originaires de 91 pays différents, ont généré entre juin 2020 et mai 2021 une fournée de données pour comprendre pourquoi l’algorithme de YouTube leur a montré du contenu qui ne leur convenait pas. Sur un an, 3 362 vidéos ont été estimées “regrettables” au visionnage, soit plus de 1 % des vidéos regardées pendant cette même période.

Une montée inquiétante de la désinformation

L’une des plus grandes plaintes des utilisateurs sondés pour l’enquête concerne des vidéos de désinformation. La pandémie de Covid-19 a évidemment augmenté leur présence sur YouTube, mais c’est le fait que ces dernières soient recommandées par la plateforme elle-même qui inquiète.

En effet, 71 % des vidéos signalées par les utilisateurs de l’enquête ont été recommandées par YouTube. Dans l’autre sens, 40 % des vidéos recommandées sont plus susceptibles d’être signalées. Sachant que YouTube indique qu’un milliard d’heures de vidéos sont visionnées quotidiennement, le nombre de vidéos “regrettées” pourrait atteindre plusieurs centaines de millions d’heures de vidéos imposées par l’algorithme par jour.

Enfin, un autre point signale que les vidéos issues de pays non anglophones affichent des taux de “regret” supérieur de 30 %. Il est précisé que des pays comme le Brésil, la France ou encore l’Allemagne sont particulièrement représentés, en particulier sur la thématique des vidéos complotistes relatives à la pandémie.

YouTube sommé de prendre des mesures

Ce n’est pas la première fois que YouTube est accusé de recommander des contenus néfastes. En 2019 déjà, la plateforme vidéo de Google avait reconnu et affirmé regretter que cela puisse être le cas. Pour autant, aucune information n’avait été fournie quant aux efforts de la plateforme pour ajuster son algorithme.

D’autant plus que, parmi les vidéos “regrettées”, on trouve des contenus en total désaccord avec les règles communautaires de YouTube. L’étude affirme que la plateforme a recommandé des contenus extrêmement problématiques : des enfants ont été confrontés à des contenus sexuels, et des personnes affirment être entrées dans un cercle vicieux de “radicalisation” via des vidéos violentes et peu (ou pas) censurées.

La Mozilla Foundation exige ainsi de YouTube qu’il clarifie ce sujet en permettant par exemple à des chercheurs d’auditer les algorithmes de recommandations. La liste de recommandations concerne aussi la mise en place de garde-fou et de systèmes de vérification extérieurs à la plateforme. Enfin, il est demandé que les utilisateurs de YouTube (et Google) puissent avoir un contrôle total sur les contenus qui leur seront recommandés, afin notamment de protéger leurs proches et les enfants.

YouTube n’a pour le moment pas réagi à l’étude.

Vous êtes déjà tombés sur d’étranges recommandations YouTube ? Écrivez-nous à hellokonbinitechno.com