Selon des témoignages de prestataires de YouTube relayés par BuzzFeed, la présence de vidéos malsaines pour enfants sur la plateforme vidéo s'expliquerait en grande partie par le mauvais entraînement des algorithmes de classement. Les équipes seraient en effet chargées de privilégier la forme au fond dans leurs évaluations.

Pour mettre fin aux dérives liées à ses vidéos malsaines  pour enfants — qu’il s’agisse de parodies de dessins animé à caractère violent comme sexuel ou encore de productions qui mettent en scène des mineurs dans des contextes perturbants –, YouTube compte faire appel à plus de 10 000 modérateurs en 2018.

Mais l’origine du problème ne vient pas tant du manque de main d’œuvre que des consignes  qui sont données aux équipes actuellement en poste, à en croire BuzzFeed. Le site américain a en effet interrogé plusieurs prestataires chargés « d’entraîner  les algorithmes de la plateforme vidéo pour qu’ils fournissent les résultats de recherche les plus pertinents, en se basant sur un document en date d’avril 2017, non mis à jour malgré la polémique de ces derniers mois — qui a notamment provoqué le boycott de certains annonceurs.

Leur travail consiste notamment à noter les vidéos mises en ligne sur la plateforme pour évaluer leur qualité. Or, les consignes fournies par YouTube ont selon eux tendance à valoriser la forme au fond, en exigeant systématiquement d’attribuer des bonnes notes aux productions esthétiquement irréprochables : « Lorsqu’une vidéo est perturbante ou violente, on peut la signaler mais on doit malgré tout la qualifier de vidéo de grande qualité [selon des critères  relevant de la qualité de la réalisation, de l’animation, etc.]