Le rapport de Christchurch indique de meilleures pistes pour la réforme de l'Internet


Il y a deux ans, la semaine dernière, un suprémaciste blanc est entré dans deux mosquées de Christchurch, en Nouvelle-Zélande, et a commencé à pulvériser des balles sur les fidèles, tuant 51 personnes. L'attaque a fait connaître au public une forme particulière d'extrémisme du 21e siècle, ce qui rend difficile d'ignorer la force durable des idées extrémistes blanches et l'inefficacité des gouvernements occidentaux à les éradiquer. Et le tireur – dont le manifeste débordait de blagues sur Internet et qui a retransmis le tournage en direct "comme s'il s'agissait d'un jeu vidéo de tir à la première personne»- obligé le grand public à se retrouver face à face avec une idée longue bien établi parmi les chercheurs sur l'extrémisme: il y a beaucoup de choses dangereuses en ligne, et volonté s'infiltrer hors des quatre coins d'Internet et dans le monde réel.

Le regard le plus complet sur le tireur, l'attaque et les échecs bureaucratiques qui l'ont précédé provient d'un 792 pages rapport publié par le gouvernement néo-zélandais en décembre 2020. Le document retrace les contacts du tireur avec les autorités kiwi et australiennes, reconstitue sa situation financière et fait la chronique de l'attaque elle-même. Mais sa contribution la plus précieuse est peut-être d’assembler, dans les moindres détails et pour le public, les activités en ligne du tireur au cours des mois et des années qui ont précédé le tournage. Le rapport dresse le portrait d'un homme fasciné par les coins extrémistes d'Internet. Il a posté dans des groupes Facebook d'extrême droite. Il a inhalé des vidéos YouTube de la suprématie blanche. Il a fait don d'argent à ses célébrités racistes préférées sur Internet. Il a lu des manifestes. Il a écrit l'un des siens.

Beaucoup de choses ont changé en deux ans. YouTube est devenu relativement plus agressif en essayant d'empêcher un nombre croissant de créateurs racistes de gagner de l'argent directement sur la plateforme et maintenant réclamations il supprime cinq fois plus de «vidéos haineuses» qu'au moment de l'attaque. Facebook a plus de règles. Le New York Times a fait un tout série podcast à propos de YouTube «Rabbit Hole» – les gens commencent par des vidéos sur la virilité ou le politiquement correct et finissent sur un tapis roulant de vidéos sur la façon dont les Blancs sont remplacés par des minorités. Mais en lisant le rapport de Christchurch, ce qui est le plus frappant, c’est le nombre de problèmes qu’il documente Continuez pour vexer les gouvernements et les plateformes.

Alors que certains influenceurs de droite ont été démonétisés sur YouTube ou ont tout simplement été lancés, il en reste beaucoup d'autres, et la présence d'un tel contenu reste un gros problème. Facebook a fait tout un plat au sujet de son conseil de surveillance et de certaines nouvelles règles pour le contenu de la plateforme, mais les groupes Facebook restent un terreau fertile pour le vitriol rempli de haine, l'extrémisme et même la célébration de la violence. Par-dessus tout, l’attention des critiques sur les grands acteurs conduit à un examen beaucoup moins minutieux des petites entreprises Internet et de celles qui ne traitent pas exclusivement des discours publiés par les utilisateurs. Les extrémistes et leurs idées migrent de plate-forme en plate-forme, impliquant non seulement les plates-formes de médias sociaux dans la modération du contenu, mais également les sites Web de partage de fichiers et les processeurs de paiement.

Groupes Facebook et au-delà

Le rapport retrace un terrain familier pour les personnes qui ont suivi l'espace de modération de contenu: Facebook, en particulier la fonctionnalité Groupes de Facebook, a joué un rôle important dans l'incubation des idées extrêmes de l'individu.

L’incursion de l’individu dans les communautés Internet extrémistes a commencé bien avant son utilisation de Facebook; selon le rapport, «en 2017, il a dit à sa mère qu'il avait commencé à utiliser le babillard Internet 4chan» – un site connu pour accueillir des discours de haine – «quand il avait 14 ans». Il jouait également à des jeux vidéo et «exprimait ouvertement des opinions racistes et d'extrême droite» dans des discussions pendant ces sessions. Pourtant, Facebook était un élément clé de l'activité en ligne de l'individu et le compte rendu de son activité sur Facebook trace une piste de racisme et d'islamophobie manifestes.

Il était l'un des plus de 120 000 adeptes de la page Facebook du United Patriots Front, un groupe d'extrême droite australien, et a commenté une trentaine de fois sur la page entre avril 2016 et début 2017. Il a fait l'éloge du chef du United Patriots Front sur l'organisation de l'organisation. page, ainsi que le leader du True Blue Crew, un autre groupe d'extrême droite en Australie. Il a utilisé Facebook pour envoyer par message direct une menace à un critique australien du premier (qui aurait été signalé aux autorités sans apparemment aucune mesure prise). Un message à cette personne disait: «J'espère qu'un jour vous rencontrerez la corde.»

Après que Facebook a supprimé le groupe United Patriots Front en mai 2017, des membres du United Patriots Front ont créé un autre groupe d'extrême droite, The Lads Society, auquel l'individu a été invité. Bien qu’il ait refusé de rejoindre le club du monde réel, il a rejoint et est devenu un membre actif du groupe Facebook de la Lads Society. Le modèle est tristement familier: Facebook axe un groupe et les membres du groupe en créent un nouveau. Au cours des mois suivants, selon le rapport, l'individu est devenu «un contributeur actif (au nouveau groupe), publiant sur des sujets liés à des problèmes survenant en Europe, en Nouvelle-Zélande et dans sa propre vie, des mèmes d'extrême droite, des articles dans les médias, YouTube des liens (dont beaucoup ont depuis été supprimés pour avoir enfreint les accords de contenu de YouTube) et des publications sur des personnes qui étaient pour ou contre ses opinions. " Il a également encouragé les dons à un politicien d'extrême droite et a averti que «(o) ur la plus grande menace est les immigrants non violents, à forte fécondité et à forte cohésion sociale … sans violence, je ne suis pas certain s'il y aura une victoire possible à tout." Plus tard, dans les mois précédant l'attaque terroriste de 2019, l'individu a publié des liens vers des contenus extrémistes sur Facebook et Twitter. Il a également réalisé un album Facebook intitulé «Open in case of Saracens», qui comprenait deux vidéos avec des vues d'extrême droite et des appels à la violence – et une image modifiée numériquement qui représentait Masjid an-Nur, l'une des cibles ultimes du terrorisme. attaque, en feu.

Dans de nombreux cas, les groupes Facebook restent des fosses de haine et d'extrémisme, et même des incitations et complots purs et simples à la violence. L'attaque terroriste du 6 janvier contre le Capitole des États-Unis était en partie prévu dans les groupes Facebook; immédiatement après les élections de novembre 2020, Facebook a supprimé un groupe de plusieurs centaines de milliers de membres «Stop the Steal» pour laisser des centaines d'autres grandir dans les semaines suivantes. Le contenu du fil d'actualité de la plate-forme lui-même, ainsi que dans les albums photo des utilisateurs et sur les «murs» des utilisateurs, reste également un problème vis-à-vis de la haine et de l'extrémisme. Facebook, quant à lui, continue édicter des règles vaguement rédigées sur les paramètres acceptables du comportement de groupe.

Fandom en ligne

Backlash après la publication du rapport centré sur une plateforme Internet en particulier: YouTube. Le rapport lui-même indiquait clairement que la plate-forme de partage de vidéos jouait un rôle central dans la motivation du tireur, l'écriture "L'individu a affirmé qu'il n'était pas un commentateur fréquent sur les sites d'extrême droite et que YouTube était, pour lui, une source beaucoup plus importante d'informations et d'inspiration." Et après la publication du rapport, les chercheurs et les journalistes extrémistes se sont attaqués à YouTube pour des raisons familières: ses règles de contenu laxistes, son aversion pour la transparence et, bien sûr, son algorithme. YouTube a fait quelques pas dans la bonne direction sur ces questions, mais il est loin de régler tous les problèmes.

L’une des contributions les plus importantes du rapport au bilan public concernant l’extrémisme sur YouTube et la culture d’extrême droite en ligne est tombée pour la plupart sous le radar dans les semaines qui ont suivi la publication du rapport. Le rapport détaille que le tireur n'a pas simplement regardé passivement beaucoup de mauvaises vidéos YouTube, il s'est attaché à une collection de sensations Internet d'extrême droite.

Les racistes de premier plan ne se sont jamais limités à YouTube, mais la plate-forme a fourni un terrain particulièrement fertile pour les nationalistes blancs "microcélébrités»Pour lapider les fans dévoués. La chercheuse de Stanford Becca Lewis a écrit un 2018 Data & Society rapport documenter le phénomène. Elle fait valoir que YouTube convient parfaitement aux «célébrités de niche bien connues au sein de communautés spécifiques». Cela aide à tricoter des YouTubers ou à des YouTubers de rééducation de la cheville pour gagner des partisans fidèles, mais cela stimule également la conspiration de George Soros sur les YouTubers ou "racisme scientifique«YouTubers. La plateforme des offres certains comptes apportent un soutien financier direct et le format vidéo (souvent très long) permet à d'autres personnalités de «développer des relations très intimes et transparentes avec leur public». Les influenceurs YouTube qui gagnent de l'argent grâce au maquillage ou à l'équipement d'exercice de marque peuvent tirer parti des relations entre les utilisateurs et les affiches pour vendre des cosmétiques ou des cordes à sauter; Les influenceurs nationalistes blancs peuvent de la même manière tirer parti des relations parasociales que les individus entretiennent avec eux comme un outil pour «vendre» un «idéologie d'extrême droite»- et aussi quelques T-shirts en cours de route. C’est un cycle d’attraction idéologique, le développement de relations entre le public et le créateur et l’approfondissement de ces relations.

La célébrité Internet de droite qui obtient le plus de temps d'antenne dans le rapport de Christchurch est Blair Cottrell. Deux groupes d'extrême droite australiens – d'abord le United Patriots Front, puis la Lads Society – comptent Cottrell comme leur fondateur. Les tribunaux australiens l'ont condamné en Novembre 2019 sur des accusations criminelles liées à la décapitation d'un mannequin en signe de protestation contre un projet de mosquée, puis à la mise en ligne de cette vidéo. Le rapport détaille comment le tireur de Christchurch a passé beaucoup de temps sur l'orbite en ligne de Cottrell. D'avril 2016 à janvier 2017, par exemple, le tireur a «fait une trentaine de commentaires» sur la page Facebook de United Patriots Front.

Mais son adhésion à Cottrell va au-delà de sa simple implication dans le groupe Facebook de l'organisation. Il a harcelé les détracteurs de Cottrell. Il a évangélisé Cottrell dans un groupe Facebook pour un autre groupe d'extrême droite australien. Il a posté sur Facebook après que Donald Trump a remporté l'élection présidentielle américaine de 2016: «les mondialistes et les marxistes surveillent le suicide, les patriotes et les nationalistes triomphent – dans l'attente de la venue bientôt de l'empereur Blair Cottrell. Et le plus frappant de tous, il a fait un don de 50 $ AUD au United Patriots Front.

Ce qui frappe ici, ce n'est pas l'ampleur du don mais le fait que le tireur était littéralement prêt à mettre son argent là où était sa bouche raciste. Il a donné encore plus d'argent à d'autres agitateurs de droite. Le tireur a donné 138,06 $ au National Policy Institute, qui, malgré son nom sérieux, est un groupe de réflexion nationaliste américain dirigé par Richard Spencer, décrit par Emma Gray Ellis dans Wired comme "une version académique de 4Chan.»Il a déboursé plus de 83 cents de plus pour la radio Freedomain, une chaîne de droite extrêmement populaire (anciennement YouTube) dirigée par le flamboyant canadien Stefan Molyneux. Lewis tweeté après la publication du rapport, les dons "révèlent à quel point les * célébrités * de YouTube étaient importantes pour la radicalisation (du tireur)." Les dons ne reflètent pas intrinsèquement l'attachement parasocial de la part du donateurdonner de l’argent à Médecins sans frontières ne veut pas dire que quelqu'un est captivé par le conseil d’administration de l’organisme de bienfaisancemais dans chacun de ces cas, un aimant d'attention Internet charismatique incarnait chacun des groupes. Donner de l'argent au Front des patriotes unis, c'était donner de l'argent à «l'empereur Blair Cottrell»; donner de l'argent à la politique nationale, c'était couper un chèque pour Richard Spencer; contribuer à Freedomain Radio contribuait à «Stef. » Le tireur ne s'est pas seulement attaché à de mauvaises idées, il s'est attaché à de mauvaises personnes en qui il avait confiance comme ses sherpas dans un monde sombre d'idées.

YouTube a essayé de se présenter comme nettoyant son acte vis-à-vis des «microcélébrités» nationalistes blanches dans les années qui ont suivi l'attaque de Christchurch. Il a "démonétisé”Certains créateurs racistes, les empêchant de puiser directement dans le pot des revenus publicitaires YouTube générés par leurs vidéos. Il dévoilé de nouvelles règles en matière de discours de haine en juin 2019 et ont déclenché ce que NPR a qualifié de «purge»Des vidéos de la suprématie blanche. Stefan Molyneux et le National Policy Institute – deux des bénéficiaires des dons PayPal du tireur – ont obtenu le démarrage de la plate-forme, tout comme Richard Spencer.

Mais des tonnes d'influenceurs nationalistes d'extrême droite et blancs utilisent toujours YouTube comme base. Prenons l'exemple de Steven Crowder. Crowder est un YouTuber de droite—Dont le téléchargement le plus populaire est intitulé "Il n'y a que deux sexes | Change My Mind »(40 millions de vues)« qui a obtenu »démonétisé”En 2019, mais a continué à gagner de l'argent en demandant aux téléspectateurs de YouTube d'acheter ses t-shirts ou d'autres produits. Dans tous les cas, Crowder a postulé en août 2020 pour revenir au programme de monétisation et à YouTube. acquiescé. Juste ce mois-ci, Crowder publié une vidéo où son invité fait des blagues sur l'esclavage et se moque des fermiers noirs.

Le média d'investigation Bellingcat publié le mois dernier, un long rapport sur le succès continu des créateurs d'extrême droite britanniques dans la transformation du trafic YouTube en succès financier. Ces micro-influenceurs n'ont pas besoin de soutien financier direct de YouTube et utilisent souvent leurs vidéos extrêmement populaires pour attirer les donateurs potentiels vers des services de paiement tiers à l'abri des caprices des campagnes de démonétisation erratiques de YouTube. Le rapport Bellingcat cite, par exemple, les techniques utilisées par l'un de ces YouTubers: "À la fin d'une vidéo YouTube avec près d'un million de vues alimentant les caricatures racistes de réfugiés musulmans en tant que violeurs, Paul Joseph Watson, connu pour son travail avec le théoricien du complot Alex Jones, implore les téléspectateurs de lui envoyer de l'argent via SubscribeStar, une plateforme de collecte de fonds à faible modération favorisé par l'extrême droite. Il crée un lien vers sa page dans la description de la vidéo, ainsi que des clés de crypto-monnaie, des marchandises et des comptes alt-tech. » Watson compte 1,87 million d'abonnés YouTube. En d'autres termes, deux ans après l'attaque, l'extrémisme de droite continue d'inspirer de ferventes connexions en ligne entre les affiches et les téléspectateurs dévoués.et YouTube continue d'être la plaque tournante.

Au-delà des Facebook et des YouTubes

Mais le rapport offre également un rappel important de la façon dont les décisions de modération de contenu s'étendent bien au-delà des Facebook et des Twitters d'Internet. Comme Daphne Keller l'a écrit sur Twitter le mois dernier, il y a un tendance pour «écrire sur Internet comme s'il s'agissait uniquement de Facebook, Google et Twitter». Mais cette vision réductrice surplombe la immense portée de différentes entreprises à travers l'infrastructure Internet mondiale qui ont divers leviers de contrôle sur la livraison de contenu Internet – ce que les spécialistes de la technologie et de la modération de contenu appellent souvent le «empiler»Des entreprises qui font d'Internet ce qu'il est. Et le rapport de Christchurch souligne le rôle important que jouent les petites entreprises dans l'écosystème de diffusion de contenu.

Le rapport détaille un certain nombre de fois où la personne s'est livrée à un comportement répréhensible sur des sites moins connus. L'individu a également vendu deux armes à feu sur Trade Me, un site Web de petites annonces d'achat / vente Craigslist-esque en Nouvelle-Zélande, à une heure non spécifiée après décembre 2017. Sur sa liste d'articles interdits et restreints, Trade Me a les armes à feu et les munitions dans la section «restreinte», avec quelques paragraphes de qualifications élaborées en dessous; il n'interdit pas complètement la vente d'armes à feu.

Le 14 mars 2019, l'individu a également téléchargé son manifeste sur MediaFire, un service d'hébergement de fichiers incorporé aux États-Unis; selon le rapport, "il n'y avait pas d'accès public au manifeste sur ce site jusqu'à ce qu'il ait publié des liens vers celui-ci juste avant l'attaque terroriste." Le lendemain, il a téléchargé son manifeste aux formats .pdf et .docx sur Zippyshare, un autre site Web de partage de fichiers. Les sites Web de partage de contenu prétendent rapidement que les filtres de téléchargement constituent une violation de la vie privée ou ajoutent un temps de latence excessif à la réactivité du réseau, mais il n'en reste pas moins que ces sites Web étaient des moyens par lesquels l'individu a préservé ses croyances terroristes pour qu'Internet les voie. Même si les documents étaient supprimé après l'attaque terroriste, de nombreux individus les avaient déjà copiés. En effet, les néo-nazis du monde entier ont diffusion continue le manifeste de l’individu via des services comme Telegram. Le rapport, avec tous ses détails sur les activités répréhensibles sur les sites Web de partage de fichiers et de commerce électronique moins connus, rappelle clairement la nécessité d'élargir la discours sur la réforme d'Internet au-delà de quelques entreprises sélectionnées comme Facebook et YouTube.

Conclusion

Il est troublant de voir combien de problèmes liés à la lutte contre l'extrémisme en ligne persistent même des années après l'attaque de Christchurch. Mais le rapport offre bien plus qu'une simple cause de nihilisme. Ses conclusions dans le domaine de la technologie indiquent des pistes de réforme (dont beaucoup sont prônées depuis longtemps ailleurs) qui pourraient être les plus fructueuses pour éliminer le type d'activité en ligne qui peut accélérer le terrorisme raciste.

Premièrement, de nombreuses autres entreprises doivent publier de bien meilleurs rapports publics sur leurs processus de modération de contenu et leurs décisions de suppression de contenu. Malgré les campagnes de relations publiques menées par de nombreuses plateformes de médias sociaux américaines pour mettre en évidence leurs rapports de transparence, les rapports ne fournissent rien de comparable à une image complète de la fréquence à laquelle une entreprise comme Facebook choisit de prendre ou non diverses mesures d'application contre, par exemple, des extrémistes. En outre, un éventail d'entreprises qui ne sont généralement pas considérées comme faisant partie de l'écosystème plus large de diffusion de contenu en ligne, comme les processeurs de paiement et les sites Web de type petites annonces, prennent également des décisions qui influencent la disponibilité et la livraison des informations. Mais ces entreprises n'ont pas tendance à publier des informations détaillées sur leurs politiques concernant le contenu préjudiciable diffusé sur ou via l'utilisation de leurs systèmes et sur la manière dont elles finissent par mettre en œuvre ces politiques. Une meilleure divulgation aiderait à clarifier le rôle que ces entreprises fais ont dans l'écosystème de modération de contenu et contribuent à jeter les bases d'une meilleure élaboration des politiques publiques.

Et peu de plates-formes ont plus besoin d'améliorations de la transparence que YouTube. Une grande partie de la plate-forme reste une boîte noire, et comme Evelyn Douek et d'autres l'ont noté, les rapports publics qu'elle publie ont tendance à compter sur une méthodologie douteuse et n'inspirent généralement pas beaucoup de confiance dans leur exactitude. Des rapports publics plus clairs et plus fiables aideraient à répondre à des questions lancinantes sur ce que YouTube applique réellement. Qui exactement est démonétisé pendant combien de temps? Quelles parties des conditions d'utilisation de la plate-forme sont utilisées pour démarrer les utilisateurs?

Il existe un autre domaine important dans lequel YouTube échappe à la transparence. C'est devenu un événement récurrent pour le PDG de Facebook Mark Zuckerberg et le PDG de Twitter Jack Dorsey de se faire traîner sur les braises devant les comités du Congrès, mais l'invitation de la PDG de YouTube, Susan Wojcicki, a toujours tendance à se perdre dans le courrier. Aujourd'hui, par exemple, les PDG de Facebook, Twitter et Google apparaître devant le comité de l'énergie et du commerce de la Chambre avec Wojcicki manifestement absent. Comme Douek l'a décrit, l'échec du Congrès à convoquer Wojcicki avec une quelconque régularité joue dans la stratégie de relations publiques de Youtube pour «être plus opaque, garder la tête baissée, se taire et laisser les autres plates-formes prendre le dessus». Le Congrès devrait s'assurer que Wojcicki ne sera pas laissé de côté, la prochaine fois.

Facebook et YouTube peuvent également apporter des changements de politique discrets qui amélioreraient la situation, bien que ne la règlent certainement pas entièrement. YouTube, par exemple, pourrait envisager d'abaisser sa barre pour les discours de haine et de la rendre plus claire lorsque cette barre est franchie. Comme Will Oremus a écrit dans OneZero, YouTube a établi la norme en matière de discours de haine si haut que «(vous) êtes libre de vous moquer, de caricaturer et de rabaisser les gens en fonction de leur race, à condition que vous ne disiez pas que vous les déteste littéralement. Cela ne veut pas dire qu'il est facile de définir des règles claires en matière de discours de haine et de décider quand les appliquer, mais YouTube a important marge d’amélioration à cet égard. En dehors de cela, YouTube devrait être moins charitable en permettant aux créateurs autrefois démonétisés de revenir dans son programme de partenariat publicitaire. Il est important de permettre l’appel, mais il est difficile de voir comment certains contrevenants méritent la clémence. Crowder, par exemple, qui a été réintégré au programme en 2020, a continué à publier des choses répréhensibles sur la plate-forme. Lorsque YouTube a laissé Crowder revenir, il a dit qu'il "prendre les mesures appropriées»S'il enfreignait à nouveau les règles. Aucun signe «d'action appropriée» jusqu'à présent en réponse à la vidéo raciste sur les agriculteurs noirs.

Facebook peut et doit également maîtriser les groupes. Malgré les affirmations de ses dirigeants sur la difficulté d'équilibrer divers discours et intérêts en matière de droits sur leur plate-forme, le fait demeure que la suppression des contenus haineux et extrémistes, en particulier ceux qui sont propices à la violence, n'est visiblement pas une priorité pour le compagnie. La tentative de coup d'État du 6 janvier et sa préparation ont clairement montré ce fait. Facebook récemment revendiqué il entamera une répression plus complète de ses groupes, mais en tant que continue de nier problèmes de racine et problèmes systémiques dans l'entreprise abondent, il y a beaucoup de raisons historiques de scepticisme.

Aucune de ces solutions n'est simple. Aucun ne résoudra tous les problèmes exposés dans le rapport. Personne ne peut garantir qu’il n’y aura pas un autre tireur de Christchurch; les fusillades de masse racistes, après tout, sont antérieures à Internet. Mais à une époque où les décideurs politiques et les plates-formes cherchent les points à améliorer à la marge, le rapport offre un index vraiment utile des endroits à regarder.



Source link

Pourquoi créer un magasin virtuels ?

Un orientation commerce électronique donne l’occasion de se lancer à moindres frais pendant rapport aux entreprises classiques. De plus, vous avez la possibilité vous lancer bien plus rapidement. La maîtrise d’un condition e-commerce ne demande pas de présence physique à un endroit précis, sauf peut-être pour le stockage et la préparation des commandes que vous pouvez tout à fait externaliser, ou bien mieux dans l’hypothèse ou vous ne possédez pas de fourniture (on en parlera plus tardivement dans l’article).