© iStock

YouTube renvoie ses utilisateurs vers des contenus extrémistes et Google s'en met plein les poches 

14 mars 2018

YouTube redirige ses utilisateurs vers des contenus extrémistes, tant de gauche que de droite, estime dans un article du New York Times, Zeynep Tufekc, professeure turque qui enseigne les sciences de l'information à l'Université de Caroline du Nord. L'algorithme de YouTube, plateforme vidéo développée Google, propose aux personnes des recommandations de contenus extrêmes, racistes et conspirationnistes, estime la chercheuse. 

"YouTube pense que les personnes aiment les contenus incendiaires", explique-t-elle après avoir visionné plusieurs vidéos politiques sur la plate-forme. Dans un article d'opinion publié dans le New York Times, Tufekc explique que Google "nourrit l'extrémisme" afin d'obtenir de plus en plus d'avantages de ses visiteurs.

Lorsque Zeynep Tufekc a recherché des séquences vidéo sur Donald Trump, YouTube lui a recommandé des contenus de plus en plus extrêmes que ce qu'elle recherchait au départ. "YouTube a commencé à me recommander et à lire automatiquement des vidéos de coups de gueule de suprématistes blancs, des séquences négationnistes de l'Holocauste et d'autres contenus troublants", explique-t-elle.

Elle s'est ensuite demandé s'il s'agissait d'un phénomène exclusivement de droite. Dès lors, elle a créé un autre compte YouTube orienté cette fois-ci vers des contenus sur Bernie Sanders et Hillary Clinton et a laissé l'algorithme de recommandation de YouTube la rediriger vers où il le souhaitait.

"Très vite, j'ai été redirigée vers des vidéos de conspirateurs gauchistes, vers des vidéos prônant l'existence d'agences gouvernementales secrètes et vers des contenus affirmant que le gouvernement américain était derrière les attentats du 11 septembre 2001."

Véganisme et autres contenus extrêmes

Tufekc s'est ensuite intéressée à des sujets non politiques. Le même modèle de base a émergé. A partir de vidéos sur le végétarisme, elle a été redirigée vers des contenus sur le véganisme et des vidéos sur le jogging l'ont emmenée vers des sujets tels que les ultra-marathons.

Les conclusions de Tufekc sont soutenues par les recherches de Guillaume Chaslot, un ancien ingénieur de Google, licencié en 2013, soi-disant pour son piètre rendement de travail. Au départ, Chaslot a travaillé au développement de l'algorithme de recommandation de YouTube. Par la suite, il s'est inquiété des tactiques utilisées pour que les personnes passent plus de temps sur le site. Selon ses propres termes, son licenciement aurait davantage à voir avec son insistance à modifier la manière dont l'entreprise gère de tels problèmes.

YouTube exploite une tendance humaine naturelle

"Nous assistons à l'exploitation automatisée d'un désir humain naturel: celui de regarder derrière le rideau, de creuser plus profondément dans un sujet qui nous engage. Lorsque nous cliquons sans cesse, nous sommes entraînés par la sensation excitante de découvrir davantage de secrets et de vérités profondes. YouTube mène les téléspectateurs vers les méandres de l’extrémisme, tandis que Google augmente ses ventes grâce à la publicité", écrit le New York Times.

Une étude récente sur ce problème, en collaboration avec le Wall Street Journal, confirme ces soupçons. Enfin, YouTube admet que "ses recommandations restent un problème".

© Bengt Oberger

Lire aussi

Déjà lu?