Vingt-six pays et géants d'Internet ont rallié mercredi « l'appel de Christchurch » contre les contenus en ligne « terroristes et extrémistes violents », deux mois après la diffusion en direct sur Facebook de l'attaque contre des mosquées en Nouvelle-Zélande.
Par cet appel, initié par la Première ministre néo-zélandaise Jacinda Ardern et le président français Emmanuel Macron, les plateformes internet, dont les leaders Facebook (et ses filiales WhatsApp et Instagram) ainsi que Google et sa filiale YouTube, s'engagent à prévenir le téléchargement et la diffusion de ces contenus, y compris par « leur retrait immédiat et permanent », précise l'appel, lancé à l'Elysée.
Leur objectif est d'éviter que ne circulent des images ou des messages terroristes en ligne comme celles du massacre de 51 musulmans à Christchurch le 15 mars, diffusé en direct par son auteur, un suprémaciste australien, sur Facebook Live pendant 17 minutes.
« Nous pouvons être fiers (...) Nous avons pris des mesures concrètes afin d'empêcher qu'un drame comme celui de Christchurch ne se reproduise », a déclaré Mme Ardern.
«Atténuer les risques »
Dans l'appel, les entreprises s'engagent à prendre des mesures immédiates pour « atténuer les risques » liés à la diffusion en direct des contenus, grâce à leur identification et un examen « en temps réel ». Un défi pour des contenus qui, à peine retirés, sont souvent aussitôt republiés par des utilisateurs.
Les groupes internet évoquent notamment la mise en place de mécanismes de signalement adaptés ou d'algorithmes pour détourner les utilisateurs de ces contenus ainsi que la fermeture de comptes si nécessaire.
« Facebook a tenté de supprimer la vidéo: ils l'ont enlevée 1,5 million de fois.
Durant les premières 24 heures, elle a été remise en ligne sur YouTube chaque seconde », a relevé Mme Ardern.
Son appel, qui a rejoint les préoccupations d'Emmanuel Macron, a été approuvé par une vingtaine de chefs d'Etat et de gouvernement, comme le roi Abdallah de Jordanie, le président sénégalais Macky Sall ou la Britannique Theresa May, et de patrons des géants du numérique, dont Google, Twitter et Facebook, présents à l'Elysée.
Par cet appel, initié par la Première ministre néo-zélandaise Jacinda Ardern et le président français Emmanuel Macron, les plateformes internet, dont les leaders Facebook (et ses filiales WhatsApp et Instagram) ainsi que Google et sa filiale YouTube, s'engagent à prévenir le téléchargement et la diffusion de ces contenus, y compris par « leur retrait immédiat et permanent », précise l'appel, lancé à l'Elysée.
Leur objectif est d'éviter que ne circulent des images ou des messages terroristes en ligne comme celles du massacre de 51 musulmans à Christchurch le 15 mars, diffusé en direct par son auteur, un suprémaciste australien, sur Facebook Live pendant 17 minutes.
« Nous pouvons être fiers (...) Nous avons pris des mesures concrètes afin d'empêcher qu'un drame comme celui de Christchurch ne se reproduise », a déclaré Mme Ardern.
«Atténuer les risques »
Dans l'appel, les entreprises s'engagent à prendre des mesures immédiates pour « atténuer les risques » liés à la diffusion en direct des contenus, grâce à leur identification et un examen « en temps réel ». Un défi pour des contenus qui, à peine retirés, sont souvent aussitôt republiés par des utilisateurs.
Les groupes internet évoquent notamment la mise en place de mécanismes de signalement adaptés ou d'algorithmes pour détourner les utilisateurs de ces contenus ainsi que la fermeture de comptes si nécessaire.
« Facebook a tenté de supprimer la vidéo: ils l'ont enlevée 1,5 million de fois.
Durant les premières 24 heures, elle a été remise en ligne sur YouTube chaque seconde », a relevé Mme Ardern.
Son appel, qui a rejoint les préoccupations d'Emmanuel Macron, a été approuvé par une vingtaine de chefs d'Etat et de gouvernement, comme le roi Abdallah de Jordanie, le président sénégalais Macky Sall ou la Britannique Theresa May, et de patrons des géants du numérique, dont Google, Twitter et Facebook, présents à l'Elysée.