Alors que les Jeux Olympiques et Paralympiques de Paris 2024 approchent à grands pas, les autorités françaises et le Comité International olympique (CIO) se mobilisent pour assurer la sécurité et le bien-être mental des athlètes. Les organisateurs s'en remettent notamment à l'intelligence artificielle pour tenter de déployer une barrière anti-haine autour des sportifs. Explication.
Le cyberharcèlement est devenu un véritable fléau dans le monde du sport de haut niveau. De plus en plus d'athlètes sont victimes de moqueries, d'insultes, voire de menaces sur les réseaux sociaux. Ces attaques proviennent souvent d'individus anonymes qui profitent de la distance et de l'impunité apparente offertes par Internet pour déverser leur haine. Les sportifs sont particulièrement exposés en raison de leur notoriété et de leur présence médiatique. Chaque performance, chaque déclaration, chaque publication devient un prétexte pour les agresser verbalement. Les réseaux sociaux comme Twitter (récemment renommé X), Instagram, Facebook ou encore TikTok sont devenus les terrains de prédilection de ces harceleurs.
Le grand défouloir
Les commentaires haineux peuvent également s'immiscer sous des articles de presse en ligne ou des vidéos YouTube. Pour Kirsty Burrows, responsable de l'unité pour la pratique du sport en toute sécurité au CIO, il est « tellement omniprésent et malheureusement normalisé qu'il est difficile de se faire une idée de l'ampleur du problème ». Les conséquences du cyberharcèlement sur la santé mentale et les performances des athlètes ne sont pas à négliger. Être constamment exposé à des messages violents, humiliants ou menaçants peut générer un stress important, saper la confiance en soi et perturber la concentration. « Si quelqu'un vous attaque en ligne juste avant votre compétition, vous ne vous sentirez pas en sécurité, même si votre environnement physique est sûr », souligne encore Kirsty Burrows. Cette pression supplémentaire peut avoir un impact direct sur les résultats sportifs. Certains athlètes avouent être devenus plus timorés sur le terrain, de peur de s'exposer à des critiques en cas d'échec. D'autres peinent à lâcher prise et passent trop de temps à lire les commentaires négatifs, au détriment de leur préparation mentale.
L'intelligence artificielle à la rescousse
Pour tenter de protéger les athlètes du cyberharcèlement lors des Jeux Olympiques et Paralympiques de Paris 2024 (26 juillet-11 août), le Comité International olympique et les autorités françaises misent notamment sur l'intelligence artificielle (IA). L'objectif est d'utiliser cette technologie pour détecter et supprimer rapidement les messages haineux ciblant les sportifs sur les réseaux sociaux. Ainsi, le CIO va déployer un dispositif basé sur l'IA capable de modérer en temps réel et en plus de 35 langues les contenus postés sur les comptes des 15 000 athlètes olympiques et paralympiques, ainsi que sur ceux de leur entourage (entraîneurs, officiels…). De son côté, le ministère des Sports s'appuie sur l'expertise de la société française Bodyguard, qui propose également une solution d'IA pour identifier et masquer automatiquement les commentaires toxiques. L'avantage de ces outils est leur capacité à traiter un énorme volume de données en un temps record. Là où une modération humaine mettrait des années à analyser chaque message, l'IA promet d'accomplir cette tâche en quelques secondes. Toutefois, le recours à l'IA soulève des questions quant aux risques de surmodération et de censure abusive. Par ailleurs, la technologie ne peut suffire à elle seule à régler le problème du cyberharcèlement. C'est pourquoi elle est pensée comme un maillon d'un dispositif plus large, incluant notamment un accompagnement psychologique des athlètes, des actions de sensibilisation, des procédures de signalement et même des poursuites judiciaires dans les cas les plus graves.