En 2022, YWCA Canada a publié le #Bloquons La Haine Rapport National et les résultats des données de sondage, concentrant sur les voix, les expériences vécues et les stratégies partagées par les jeunes femmes et les jeunes de diverses identités de genre âgés de 16 à 30 ans autour de la fin de la haine en ligne et de la création d’espaces numériques plus sécuritaires. Dans le cadre de ces conversations, deux questions ont émergé comme nécessitant une attention supplémentaire : l’anonymat en ligne et la modération du contenu. Sur les deux sujets, les participants aux groupes de discussion ont souligné les complexités et les tensions de la réglementation dans ces domaines.
L’une des raisons pour lesquelles la haine en ligne peut se poursuivre sans se décourager est qu’il y a rarement des risques de réputation ou de punition impliqués. Une participante a déclaré : « [il] est beaucoup plus facile de commettre de la haine et de la violence en ligne lorsque vous dissimulez votre identité et que vous vous cachez derrière un écran ». Elles étaient claires sur le fait que « les agresseurs se nourrissent de l’anonymat ». Cependant, elles ont également partagé que les femmes, les jeunes de diverses identités de genre et les groupes méritant l’équité trouvent refuge en restant anonymes. Cela soulève un paradoxe évident dans les points de vue des participant.e.s. Alors que beaucoup ont convenu que l’anonymat permettait aux utilisateurs de devenir des « agents de la haine », plusieurs partageaient des sentiments d’appréhension à divulguer des marqueurs de leur identité en ligne.
Pour les groupes historiquement et systématiquement marginalisés, la possibilité de rester privé offre une protection contre la haine en ligne et les préjudices connexes. Des préoccupations valables ont été soulevées concernant la confidentialité des données, la confidentialité et la surveillance. Quelques participant.e.s aux groupes de discussion ont suggéré que les plateformes pourraient passer à un modèle d’enregistrement de compte vérifié avec des informations d’utilisateur confirmées (qu’elles soient affichées ou non). D’autres se méfiaient profondément de toute insistance sur les comptes liés à l’identité de l’utilisateur. Pour certains participant.e.s, l’anonymat a créé la sécurité et un espace pour s’engager librement. Dans les environnements en ligne où les identifiants liés au genre, à la race, à l’origine ethnique, à l’orientation sexuelle, à l’indigénéité et au type de corps étaient souvent la raison pour laquelle de nombreux utilisateurs de plateformes sont ciblés, l’anonymat leur permet de naviguer dans les écosystèmes en ligne et de participer sans attirer l’attention. Il s’agit d’un domaine où des recommandations claires n’ont pas émergé, et nécessite donc une attention et des nuances supplémentaires.
Une autre tension signalée par les participant.e.s était l’exigence que les plateformes prennent des mesures rapides et opportunes pour supprimer les contenus haineux. Alors que beaucoup estimaient qu’il était nécessaire que les plateformes déploient des outils technologiques pour garantir un retrait rapide, d’autres craignaient que cela ne renforce le préjugé contre les utilisateurs marginalisés et les créateurs de contenu. Lorsque les plateformes sont obligées de lutter rapidement contre la haine en ligne et à grande échelle, elles se tournent vers des méthodes d’intelligence artificielle (IA) qui filtrent de manière préventive ou filtrent automatiquement les contenus potentiellement haineux. Certain.e.s participant.e.s craignaient que la suppression rapide alimentée par l’IA risque d’aplatir le contexte et de censurer leurs points de vue. D’autres n’étaient pas certain.e.s que ces méthodes puissent détecter et réguler le langage codé – comme les rimes, les allitérations et les emojis et hashtags apparemment bénins – utilisés pour éviter la détection et d’autres programmes haineux.
Même lorsque la haine en ligne a disparu et que les messages ont été supprimés, l’impact est resté. Les participant.e.s ont souligné que la haine incluse dans le contenu éphémère – contenu photo ou vidéo qui est temporaire et disparaît, comme les histoires sur diverses plateformes (Facebook, Instagram, TikTok, Snapchat) – peut sembler être de courte durée, mais ceux-ci peuvent être capturés et sauvé ou re-partagé, et donc avoir une vie après la mort où la peur et le mal persistent. De plus, la vitesse à laquelle la haine en ligne évolue et se propage nécessite un mélange d’intervention technique et de modération humaine. les participant.e.s ont demandé que les plateformes s’appuient davantage sur des modérateurs humains formés pour examiner les décisions et prendre des décisions nuancées sur le contenu signalé. Cependant, beaucoup étaient conscient.e.s du coût des modérateurs humains et des conditions de travail exténuantes conduisant à l’épuisement des modérateurs et aux traumatismes par procuration. Il est clair qu’un changement à l’échelle du secteur est nécessaire pour garantir que tous les modérateurs de communauté et de contenu sont soutenus et formés pour analyser la haine en ligne et que les décisions de l’IA sont soumises à un examen et à des mises à jour continues.
Grâce à des recherches menées auprès de jeunes femmes et de jeunes de diverses identités de genre à travers le pays, YWCA Canada a présenté des propositions essentielles dans le rapport national à prendre en considération lors de l’élaboration de régimes juridiques et réglementaires concernant la haine en ligne et les méfaits connexes. Ces efforts sont nécessaires pour garantir la liberté d’expression et la pleine participation des jeunes femmes et des jeunes de diverses identités de genre aux plateformes en ligne et à la vie publique.