YOUTUBE AU COEUR DE LA CRITIQUE : QUI VEUT FAIRE L’ANGE FAIT PARFOIS LA BÊTE

À l’heure où les débats et les projets de lois se multiplient concernant les “fakes news” et le respect de la vie privée sur internet, les réseaux sociaux sont pointés du doigt. En Février, ce fut au tour de Youtube, explications :

https://www.youtube.com

Audience dans le monde :

Fin février 2017, Google a annoncé que YouTube venait de dépasser un milestone : “Chaque jour, plus d’un milliard d’heures de vidéo sont visionnées sur YouTube.”

Autre chiffre clé : 1,5 milliard de personnes se rendent sur YouTube chaque mois (statistiques publiée fin juin 2017), ce qui est plus que le nombre de foyers qui possèdent des téléviseurs.

Pour vous donner une idée : une heure de nouvelles vidéos est téléchargée sur YouTube par seconde, soit 31 536 000 heures ou 1 314 000 jours complets de contenu vidéo par an. En clair, une personne aurait besoin de 3600 ans pour regarder tout le contenu téléchargé en un an sur YouTube.

C’est invraisemblable n’est ce pas ? A notre échelle en tant qu’individu, oui…

Véritable mine d’or pour les entreprises ?

Selon la liste de Forbes 2000, Youtube (appartenant à Google) est la 27ème plus grande société transnationale du monde. Le bénéfice de la société s’est élevé en 2016 à 19,5 milliards de dollars américains. La publicité a représenté 87,9% du chiffre d’affaires de la plateforme. YouTube a donc un double usage: il fournit des vidéos générées par les utilisateurs aux téléspectateurs et c’est une plateforme publicitaire. Les grandes données recueillies sur les utilisateurs permettent le ciblage des publicités et YouTube vend des espaces publicitaires ciblés sur des groupes d’utilisateurs.

On peut cibler les annonces vidéo Google en fonction de l’emplacement, de la démographie (sexe, âge, statut parental, revenu du ménage) et des centres d’intérêt. L’algorithme d’annonce identifie les individus avec les caractéristiques choisies et leur présente des publicités pendant qu’ils regardent des vidéos YouTube. Un client publicitaire YouTube peut sélectionner des vidéos particulières ou laisser le choix ouvert.

Seulement voilà, des entreprises comme Audi, l’Oréal ou encore McDonald’s ont retiré des publicités de YouTube après avoir révélé que certaines de ces publicités étaient présentées avec des vidéos sur l’antisémitisme, l’idéologie de la suprématie blanche, le discours de haine incitant à la violence et l’extrémisme de droite. Et il a été mis en avant que Google n’a pas correctement contrôlé le contenu de YouTube.

Protection du public mais surtout des annonceurs :

Après une “année difficile” où de nombreux annonceurs ont menacé de boycotter la plateforme, YouTube investit dans des mesures pour “protéger notre communauté contre les contenus extrémistes ou violents”. De juin à décembre 2017 plus de 150.000 vidéos ont été supprimées, “des centaines de comptes fermés et des milliers de commentaires effacés”. Cette nouvelle politique permettra de “protéger les annonceurs et les créatifs de contenus inappropriés. Nous voulons que nos annonceurs soient assurés que leurs publicités soient voisines de contenus qui reflètent les valeurs de leurs marques”. Récemment, la plateforme a rompu ses liens avec une de ses étoiles, Logan Paul, qui a diffusé une vidéo dans laquelle le corps d’une victime de suicide était visible dans la forêt Aokigahara, au Japon. L’endroit est tristement connu pour les nombreux suicides qui y sont commis.

Pour se protéger, soi-même comme ses annonceurs, YouTube modifie donc ses critères d’admissibilité à YouTube Partner Program (YPP), qui permet aux créateurs de contenus de recevoir une part des revenus publicitaires amassés par la plateforme grâce à leurs vidéos. Les chaînes YouTube devront avoir au minimum 1000 abonnés et cumuler, au cours de l’année précédente, 4000 heures de visionnement alors que la barre n’était que de 10 000 visionnements jusqu’à maintenant. La mesure entrera en fonction le 20 février prochain. YouTube surveillera aussi de près une série d’indicateurs afin de déceler les vidéos et chaînes violant ses conditions d’utilisation dans le but de les retirer de l’YPP et, éventuellement, les bannir de YouTube si des mesures correctives ne sont pas apportés.

Poursuivant cette politique, la société investira dans l’intelligence artificielle qui permettra de supprimer les vidéos non youtubement correctes de manière automatique.

Des contenus extrêmes condamnés par les entreprises mais voulus par Youtube ?

Selon une enquête du Guardian, les algorithmes de suggestion de vidéos de YouTube auraient tendance à mettre en avant des vidéos aux contenus extrêmes. Resté dans l’ombre jusqu’ici, YouTube pourrait être accusé d’avoir influencé les résultats de la campagne présidentielle américaine comme Facebook et Twitter.

Pour mieux comprendre : YouTube c’est un milliard d’heures de vidéo visionnées chaque jour. Le but de la plateforme est de vous garder sur le site le plus longtemps possible. Pour cela, lorsqu’une vidéo est terminée, une autre une autre s’enchaîne automatiquement dans les quelques secondes qui suivent à moins de décocher le bouton de lecture automatique. Ce nouveau contenu est directement suggéré par YouTube et permet par exemple de découvrir des artistes similaires en cas d’écoute musicale.

Quand il s’agit de musique, de tutoriels ou de vlogs, cela ne pose aucun soucis. En revanche, le problème arrive quand on regarde des vidéos aux sujets un peu plus sensibles. Là, très rapidement dans les vidéos suggérées apparaissent des vidéos prônant des théories du complot. Et cela car l’algorithme a remarqué que les personnes qui restent le plus longtemps sur YouTube sont celles qui regardent ce type de vidéos.

Le Guardian a pu recueillir le témoignage de Guillaume Chaslot, un ingénieur français qui fut salarié pendant trois ans chez YouTube, avant d’être licencié en 2013. “YouTube est quelque chose qui ressemble à la réalité, mais elle est en fait déformée pour vous faire passer plus de temps sur la plateforme”. Il a travaillé pendant plusieurs mois aux côtés de l’équipe d’ingénieurs spécialisés sur le système de recommandation, et en est arrivé à la conclusion que les priorités données à l’algorithme permettent d’augmenter les revenus en amplifiant le nombre de temps que les gens passent à regarder des vidéos.

“Le temps de visionnage était la priorité”

Cet ancien ingénieur chez Youtube a créé un logiciel nommé Algotransparency qui permet de voir qu’elles sont les vidéos les plus suggérées par YouTube. Selon Guillaume Chaslot, Dieudonné aurait été par exemple recommandé entre 500 millions et 1, 5 milliards de fois par YouTube parce qu’il est extrêmement efficace pour faire rester les gens sur la plateforme. En se basant sur le millier de vidéos les plus recommandés, il y a découvert pêle-mêle des vidéos démontrant que la terre était plate ou encore que le pape était l’antéchrist.

Un algorithme pro-Trump ?

“YouTube a recommandé environ six fois plus de vidéos pro-Trump qu’elle n’en a suggéré pour Hillary Clinton”, confirme le Guardian qui a aussi mené l’enquête de son côté, en prenant au hasard 1 000 vidéos les plus recommandées pendant la campagne. Le problème, c’est que beaucoup répandaient des fausses informations sur la candidate. On pouvait y lire qu’elle avait la syphilis, la maladie de Parkinson ou faisait partie d’un culte satanique.

“Il y a de nombreux moyens que YouTube peut utiliser pour modifier son algorithme, afin de limiter les “fake news” et améliore la qualité et la diversité des vidéos mise en avant.”

Google, propriétaire de YouTube, a dans un premier temps contesté la méthode utilisée par le Guardian expliquant que l’algorithme avait changé depuis le départ de Mr Chaslot. Mais après la fuite d’un courrier du sénateur Mark Warner, membre de la commission d’enquête sur l’ingérence russe dans l’élection américaine, le géant du visonnage de vidéos a fini par annoncer qu’il travaillait sur une solution pour que ces contenus soient moins mis en avant.

Lisa Cacheux

--

--