
Internet permet d'accéder à une multitude d'informations, facilite les échanges mondiaux et donc la formation d'opinion. Mais il existe aussi des risques, par exemple liés aux fausses informations ou à la polarisation croissante. Comment la population suisse évalue-t-elle ces évolutions ?
Grâce à Internet, les informations peuvent être consultées facilement, pratiquement à tout moment et de presque partout, et avec une diversité sans précédent. De plus, Internet facilite les échanges avec des personnes du monde entier - et ce, en temps réel comme de manière rétroactive. Mais il y a aussi des inconvénients. Ainsi, il devient de plus en plus difficile de distinguer les vraies des fausses informations. De plus, les algorithmes et la sélection de contenus qui en découle peuvent renforcer les discriminations existantes ou la polarisation politique. Nous avons voulu savoir de la population suisse quels dangers elle perçoit dans la formation numérique de l'opinion et dans quelle mesure elle se sent concernée par les discours de haine, les menaces et le harcèlement dans l'espace numérique par rapport à l'espace analogique.
Communication numérique : la diffusion de fausses informations est la principale préoccupation.
La population suisse est particulièrement préoccupée par la diffusion de fausses informations dans l'espace numérique (85%). En deuxième position, l'anonymat en ligne et les discours de haine sont reconnus comme un grand danger par 77% des personnes interrogées. Ces chiffres élevés doivent être considérés dans le contexte des développements politiques actuels. Ainsi, la désinformation joue un rôle central dans la guerre d'agression russe contre l'Ukraine. Nous interprétons donc ce chiffre élevé (85%) comme une prise de conscience accrue des Suisses de la rapidité avec laquelle l'opinion publique peut être déformée.
Perception des dangers dans les espaces d'information et de communication numériques

Dans le cadre d'une étude de l'Université de Zurich et de la Jeune Académie Suisse (2024), les défis actuels liés à la désinformation et aux théories du complot ont été identifiés et des recommandations d'action ont été développées. Les experts constatent dans cette étude un manque de mesures ciblées pour permettre à la population de reconnaître les contenus erronés ou conspirationnistes et de rétablir la confiance dans les institutions sociales et leurs représentants. Des lacunes réglementaires sont également identifiées et le manque de transparence dans la sélection des contenus par les algorithmes est critiqué. Les mesures préconisées sont un suivi plus transparent par les acteurs de la société civile, un renforcement des compétences en matière d'information et de médias ainsi qu'une communication scientifique efficace. Le DigitalBarometer 2024 révèle une corrélation entre le niveau d'éducation et la conscience de certains risques dans l'espace numérique. Les personnes ayant un niveau d'éducation plus élevé et des compétences numériques perçoivent davantage le danger des algorithmes qui donnent la priorité aux contenus que nous regardons que les personnes ayant un niveau d'éducation plus faible ou ne possédant pas de compétences numériques de base. Plus précisément, les personnes ayant le niveau d'éducation le plus élevé considèrent les algorithmes comme un danger deux fois plus souvent que les personnes ayant le niveau d'éducation le plus bas (80% contre 42%). Il en va de même pour les compétences numériques de base : 73% des personnes ayant des compétences numériques de base considèrent les algorithmes comme un danger, contre 46% des personnes n'ayant pas ces compétences.
Discours de haine, menaces, harcèlement : aussi répandus dans l'espace numérique que dans l'espace analogique

Le DigitalBarometer 2024 révèle un autre fait passionnant : le nombre de personnes interrogées qui déclarent avoir été délibérément harcelées, menacées ou harcelées par d'autres dans l'espace numérique est presque identique à celui des personnes qui ont fait des expériences similaires dans l'espace analogique (17% contre 18%). Les discours de haine, les menaces et le harcèlement englobent différentes formes d'hostilité, qui peuvent également être basées sur des caractéristiques de groupe telles que l'appartenance ethnique ou l'orientation sexuelle. Ces chiffres pourraient indiquer que le discours de haine et le harcèlement semblent en effet être un problème à parts égales dans le monde numérique et analogique. Cette conclusion doit toutefois être prise avec précaution. Les données ne permettent pas de déterminer dans quelle mesure les différents groupes de population sont touchés différemment par le discours haineux et le harcèlement (voir à ce sujet "Expert:innen-Check" ci-dessous). Les canaux numériques offrent également une portée et une vitesse accrues, ce qui peut accélérer la propagation du discours de haine et du harcèlement. En outre, l'anonymat et le contrôle social réduit dans le domaine numérique peuvent abaisser le seuil d'inhibition pour la publication de discours haineux par rapport au monde analogique. Il est donc essentiel que nous parlions de la sécurité en ligne et des dynamiques sociales dans l'espace numérique dans le débat public. Différentes organisations et projets de la société civile, tels que "Algorithm Watch", "Stop Hate Speech" ou la maison des médias d'intérêt général "CORRECTIV", se penchent déjà de manière intensive sur ce thème et effectuent un important travail de sensibilisation et de responsabilisation à cet égard.
Internet offre de nombreux avantages, tels qu'un accès facilité à l'information et des échanges mondiaux en temps réel. Cependant, il pose également des défis, notamment la diffusion de fausses informations, l'anonymat en ligne et les discours de haine. L'étude montre que la perception des dangers liés à ces phénomènes est profondément ancrée dans la population suisse.
Il est particulièrement surprenant de constater que, contrairement aux attentes, les expériences en matière de discours de haine et de menaces sont presque aussi répandues dans l'espace numérique que dans l'espace analogique. Il est certainement essentiel ici de renforcer, dans le cadre d'autres études et projets, la compréhension des personnes ou des minorités qui sont davantage touchées. En outre, les résultats de l'enquête montrent une corrélation positive entre le niveau de formation et la perception du danger, que les algorithmes influencent nos points de vue et donc la formation de l'opinion. Les expériences faites dans le cadre du projet Spin Off Digital Literacy montrent que la perception des dangers est notamment importante parce que de nombreuses personnes se sentent de plus en plus impuissantes à s'orienter dans la jungle des dangers numériques qui les guettent. Le travail d'information et le renforcement des compétences médiatiques sont donc d'autant plus importants. Il est essentiel de promouvoir l'éducation numérique à différents niveaux afin d'aider les gens à examiner les informations d'un œil critique, à les évaluer et à réagir en conséquence.
En ce qui concerne l'influence exercée par les algorithmes, les plateformes et les entreprises en particulier ont le devoir de prendre des mesures de régulation et de rendre compte de manière plus transparente du fonctionnement de leurs algorithmes. Cela pourrait contribuer à endiguer la diffusion de fausses informations. Il est également important de renforcer le cadre juridique dans l'espace numérique et de simplifier le processus afin de pouvoir agir plus efficacement contre les discours de haine, les menaces et le harcèlement.
Entretien avec Nathalie Klauser, cofondatrice d'Intersections
Dans quelle mesure l'expérience du discours de haine, des menaces et du harcèlement diffère-t-elle dans l'espace numérique par rapport à la vie analogique et quel rôle joue l'intelligence artificielle (IA) dans le renforcement de ces menaces ?
Le DigitalBarometer 2024 montre que les gens ne se sentent pas plus harcelés numériquement que dans la vie analogique, indépendamment de l'âge, de l'éducation ou du sexe. Dans l'espace numérique, nous assistons toutefois à un renforcement des menaces et du harcèlement en raison de l'anonymat qui permet aux auteurs d'agir sans confrontation directe. Dans ce contexte, l'IA apporte une contribution à la fois négative et positive. D'une part, les attaques automatisées au moyen de chatbots ou la viralisation de messages haineux peuvent renforcer les comportements antisociaux. Les victimes de ces attaques sont principalement des célébrités ou des membres de groupes marginalisés, dont le potentiel de discrimination est encore renforcé par le chevauchement de différentes caractéristiques telles que l'origine, la religion, l'identité de genre ou les handicaps (intersectionnalité). Il est important d'ajouter que les groupes marginalisés ne sont souvent pas conscients de leur discrimination. Il faut donc les sensibiliser et leur donner activement les moyens d'agir. Les mouvements sociaux (#metoo, Black Lives Matter, etc.) apportent une contribution importante à cet égard dans l'espace numérique et analogique. D'autre part, l'IA offre le potentiel d'identifier et de réduire le discours de haine numérique grâce à des algorithmes de reconnaissance avancés.
Comment l'éthique numérique et les technologies d'IA peuvent-elles contribuer à la lutte contre le discours de haine numérique et à la promotion d'un environnement numérique équitable ?
L'éthique numérique joue un rôle important dans la lutte contre le discours de haine numérique et le harcèlement. En effet, les racines des pratiques discriminatoires sont souvent profondément ancrées dans l'utilisation de l'intelligence artificielle. C'est pourquoi il est crucial d'examiner les applications d'IA de manière contextuelle en fonction de principes éthiques tels que l'autonomie, la prévention des dommages, l'équité et la transparence, et ce sous différents angles. Les personnes concernées doivent être impliquées activement dans ce processus, sur un pied d'égalité. De cette manière, les injustices structurelles causées par la discrimination algorithmique peuvent être identifiées et abordées à différents niveaux, tels que l'organisation, la communication, la technologie et la conception.
L'UE a légiféré sur les principes éthiques dans le cadre de l'AI Act afin de réduire les risques liés à l'IA. Une sensibilisation accrue à l'éthique numérique permet également d'identifier les dangers potentiels des algorithmes.