La modération est un sujet de débat récurrent pour les géants du Web. Pourtant, on en sait très peu sur les activités de leurs modérateurs.
«Mes règles sont simples: les chatons c’est super, mais il est interdit de publier des images gores, de la pornographie ou des menaces.» La semaine dernière, un modérateur de Reddit, un forum très populaire aux États-Unis, a fait quelque chose de rare: il a parlé de son travail. Dans les colonnes de Wired, magazine américain dédié aux nouvelles technologies, il explique comment il veille tous les jours au bon fonctionnement de r/aww, un sous-forum de Reddit dédié aux images et vidéos mignonnes d’animaux. Ce travail n’a rien d’anodin. Il est même titanesque. Sur r/aww, 20 modérateurs, tous volontaires, contrôlent les publications de plus de 19 millions de membres, chassant les contenus hors sujet mais aussi la propagande politique étrangère ou les discours de haine.
Ces dernières années, la modération en ligne est devenue un sujet de discussion incontournable, et un enjeu politique pour les grandes plateformes en ligne. Des entreprises comme Facebook (aussi propriétaire d’Instagram), Twitter ou Google (propriétaire de YouTube) doivent se justifier sur les moyens mis en œuvre pour lutter contre la violence en ligne, la pédopornographie ou la propagande terroriste
. On s’inquiète, à juste titre, de l’exposition d’enfants très jeunes à des contenus problématiques, cachés dans des vidéos YouTube en apparence innocentes ou dans les commentaires d’une vidéo TikTok, une application chinoise très à la mode chez les adolescents.
En Europe, plus particulièrement en Allemagne et en France, on prépare ou l’on a déjà promulgué des lois forçant les grandes plateformes du Web à répondre plus vite aux signalements des internautes et des autorités, et de faire disparaître ce qui n’a pas lieu d’être, selon eux, sur le Web. Dimanche, Brad Smith, le président de Microsoft, a appelé l’industrie des nouvelles technologies à «prendre collectivement de nouvelles décisions» pour améliorer la modération en ligne au niveau mondial, après l’attentat de Christchurch, filmé et diffusé en direct sur les réseaux sociaux.
La fausse solution de l’intelligence artificielle
Et pourtant, alors que la modération est devenue un sujet incontournable, on n’a jamais aussi peu entendu parler des personnes censées assurer ce travail. La figure du modérateur, incontournable aux débuts du Web et des forums en ligne, a progressivement disparu de l’imaginaire collectif, et des discours des entreprises. Facebook et Google, qui gèrent les plus grosses plateformes Web au monde, ont mis des années à révéler le nombre de personnes en charge du contrôle des contenus publiés sur leurs services. On ignore encore aujourd’hui où elles travaillent, et dans quelles conditions. Fin 2018, le Figaro a pu se rendre dans un centre de modération de Facebook à Barcelone. Il s’agissait néanmoins d’une visite exceptionnelle, millimétrée, et dans une entreprise sous-traitante espagnole, loin des conditions déplorables décrites dans la presse dans d’autres centres dans des pays en voie de développement.
Souvent, on considère l’intelligence artificielle comme le Graal de la modération.
(...)
.../...
«Mes règles sont simples: les chatons c’est super, mais il est interdit de publier des images gores, de la pornographie ou des menaces.» La semaine dernière, un modérateur de Reddit, un forum très populaire aux États-Unis, a fait quelque chose de rare: il a parlé de son travail. Dans les colonnes de Wired, magazine américain dédié aux nouvelles technologies, il explique comment il veille tous les jours au bon fonctionnement de r/aww, un sous-forum de Reddit dédié aux images et vidéos mignonnes d’animaux. Ce travail n’a rien d’anodin. Il est même titanesque. Sur r/aww, 20 modérateurs, tous volontaires, contrôlent les publications de plus de 19 millions de membres, chassant les contenus hors sujet mais aussi la propagande politique étrangère ou les discours de haine.
Ces dernières années, la modération en ligne est devenue un sujet de discussion incontournable, et un enjeu politique pour les grandes plateformes en ligne. Des entreprises comme Facebook (aussi propriétaire d’Instagram), Twitter ou Google (propriétaire de YouTube) doivent se justifier sur les moyens mis en œuvre pour lutter contre la violence en ligne, la pédopornographie ou la propagande terroriste
. On s’inquiète, à juste titre, de l’exposition d’enfants très jeunes à des contenus problématiques, cachés dans des vidéos YouTube en apparence innocentes ou dans les commentaires d’une vidéo TikTok, une application chinoise très à la mode chez les adolescents.
En Europe, plus particulièrement en Allemagne et en France, on prépare ou l’on a déjà promulgué des lois forçant les grandes plateformes du Web à répondre plus vite aux signalements des internautes et des autorités, et de faire disparaître ce qui n’a pas lieu d’être, selon eux, sur le Web. Dimanche, Brad Smith, le président de Microsoft, a appelé l’industrie des nouvelles technologies à «prendre collectivement de nouvelles décisions» pour améliorer la modération en ligne au niveau mondial, après l’attentat de Christchurch, filmé et diffusé en direct sur les réseaux sociaux.
La fausse solution de l’intelligence artificielle
Et pourtant, alors que la modération est devenue un sujet incontournable, on n’a jamais aussi peu entendu parler des personnes censées assurer ce travail. La figure du modérateur, incontournable aux débuts du Web et des forums en ligne, a progressivement disparu de l’imaginaire collectif, et des discours des entreprises. Facebook et Google, qui gèrent les plus grosses plateformes Web au monde, ont mis des années à révéler le nombre de personnes en charge du contrôle des contenus publiés sur leurs services. On ignore encore aujourd’hui où elles travaillent, et dans quelles conditions. Fin 2018, le Figaro a pu se rendre dans un centre de modération de Facebook à Barcelone. Il s’agissait néanmoins d’une visite exceptionnelle, millimétrée, et dans une entreprise sous-traitante espagnole, loin des conditions déplorables décrites dans la presse dans d’autres centres dans des pays en voie de développement.
Souvent, on considère l’intelligence artificielle comme le Graal de la modération.
(...)
.../...