Les abus en ligne alimentés par l’IA : comment l’IA amplifie la violence envers les femmes et ce qui peut l’arrêter

Image
A woman looks at her phone concerned. AI powered abuse is threatening women and girls everywhere. There is no excuse for online abuse. Photo: UN Women
Stock photo posed by model.

Basic Hero Banner

Nous vivons déjà dans un monde où au moins une femme sur trois est victime de violences physiques ou sexuelles. De nombreux outils d’IA extrêmement puissants, entraînés à l’aide de contenus reflétant les préjugés sexistes existants, permettent aujourd’hui à cette violence de se propager plus loin, plus vite et de manière plus complexe. Le pire des scénarios possibles s’est concrétisé.

Alors que la violence envers les femmes et les filles facilitée par la technologie s’intensifie : des études montrent que 16 à 58 pour cent des femmes dans le monde sont touchées, l’intelligence artificielle crée de nouvelles formes d’abus et amplifie les formes existantes à un rythme alarmant.

Les chiffres sont accablants : une enquête mondiale a révélé que 38 pour cent des femmes ont personnellement été victimes de violence en ligne, et que 85 pour cent des femmes présentes en ligne ont été témoins de violences numériques contre d’autres femmes. Mais le problème ne se limite pas aux écrans. Ce qui se passe en ligne déborde facilement sur la vraie vie, et la situation s’aggrave. Les outils d’IA ciblent les femmes, permettant de les contacter, de les faire chanter, de les traquer, de les menacer et de les harceler, ce qui a des conséquences importantes dans la vie réelle, que ce soit sur le plan physique, psychologique, professionnel ou financier.

Imaginez un peu : développés par des équipes masculines, de nombreux outils de création de deepfake ne sont même pas conçus pour fonctionner avec les images d’un corps d’homme. 

ONU Femmes a interrogé Laura Bates, militante féministe et autrice de The New Age of Sexism (Le nouvel âge du sexisme), et Paola Gálvez-Callirgos, experte en IA et en politique technologique, pour connaître les enjeux.

Qu’est-ce que la violence envers les femmes facilitée par l’IA ?

La violence envers les femmes facilitée par l’IA désigne les abus numériques générés et diffusés par l’IA qui entraînent des dommages physiques, sexuels, psychologiques, sociaux, politiques ou économiques, ou d’autres atteintes aux droits et aux libertés des femmes.

L’ampleur, la rapidité, l’anonymat et la facilité de communication qui caractérisent les espaces numériques créent un contexte propice à cette violence. Les auteurs ont l’impression qu’ils peuvent s’en tirer à bon compte, et les victimes ignorent souvent si elles peuvent obtenir de l’aide et comment. De plus, les systèmes juridiques doivent s’adapter à l’évolution rapide de la technologie.

Selon la militante féministe et autrice Laura Bates, la meilleure façon de faire face au risque d’abus numérique et alimenté par l’IA consiste à « prendre conscience du fait que le clivage entre les espaces en ligne et hors ligne est une illusion ».

Image
Laura Bates, author, “The New Age of Sexism”. Photo: Siggi Holm, Courtesy of Laura Bates

« Lorsqu’une personne qui se montre violente au sein de sa famille utilise des outils en ligne pour suivre ou traquer sa victime, lorsqu’une victime de deepfake pornographique perd son emploi ou l’accès à ses enfants à cause de ce deepfake, lorsque l’abus en ligne d’une jeune femme se traduit par des remarques désobligeantes hors ligne et qu’elle abandonne l’école », ce ne sont là que quelques exemples qui montrent à quel point l’abus numérique influence facilement et dangereusement la vraie vie.

Laura Bates, activiste et auteure

L’IA crée-t-elle de nouvelles formes de violence envers les femmes ?

Oui. L’IA crée des formes d’abus entièrement nouvelles et amplifie considérablement les formes existantes. L’ampleur et l’indétectabilité de l’IA créent des dommages plus étendus et plus importants que les formes traditionnelles de violence facilitée par la technologie.

Parmi les nouvelles formes d’abus à l’encontre des femmes alimentées par l’IA, on peut citer : 

  • L’utilisation abusive d’images par le biais de deepfakes : D’après les recherches, 90 à 95 pour cent des deepfakes en ligne sont des images pornographiques non consensuelles, dont environ 90 pour cent représentent des femmes. Le nombre total de vidéos deepfake en ligne en 2023 était 550 pour cent plus élevé qu’en 2019. La pornographie deepfake constitue 98 pour cent de l’ensemble des vidéos deepfake en ligne, et 99 pour cent des personnes ciblées sont des femmes. 
  • La facilitation de l’usurpation d’identité et de la sextorsion : L’IA permet de créer des deepfakes interactifs qui se font passer pour des humains et qui entament des conversations en ligne avec des femmes et des filles qui ne savent pas qu’elles interagissent avec un robot. La pratique du catfishing sur les sites de rencontre peut désormais être étendue et rendue plus réaliste grâce à des robots d’IA qui s’adaptent pour simuler des conversations humaines, incitant les femmes et les filles à révéler des informations privées ou à rencontrer les arnaqueurs hors ligne. 
  • Des campagnes de doxing sophistiquées : Les outils de traitement du langage naturel peuvent identifier les contenus sensibles ou controversés dans les publications des femmes, comme les discussions sur le harcèlement sexuel ou la misogynie, ce qui en fait des cibles plus faciles pour les campagnes de doxing. Dans certains cas, l’IA est utilisée pour rédiger des messages personnalisés et menaçants qui reprennent les propos de la victime et ses données, ce qui aggrave la violence psychologique. Lire l’histoire de Ljubica.

Que sont les deepfakes et pourquoi ciblent-ils les femmes ?

Les deepfakes sont des images, des fichiers audio ou des vidéos modifiés numériquement et créés à l’aide de l’intelligence artificielle, qui donnent l’impression qu’une personne a dit ou fait quelque chose qu’elle n’a jamais fait en réalité. Si cette technologie peut être utilisée à des fins de divertissement ou dans un but créatif, les deepfakes sont de plus en plus utilisés à des fins d’abus numérique, par exemple pour créer des images sexuelles non consensuelles, diffuser de la désinformation ou porter atteinte à la réputation d’une personne.

Les deepfakes ciblent de plus en plus, et massivement, les femmes. Laura Bates explique pourquoi : « Il s’agit en partie du problème fondamental de la misogynie. C’est un problème essentiellement lié au genre, et ce que nous observons est une manifestation numérique d’une vérité hors ligne plus générale : les hommes ciblent les femmes pour leur faire subir des violences et des abus liés au genre. »

« Mais les outils facilitent aussi ces abus », ajoute Laura Bates.

La technologie de l’IA a rendu les outils conviviaux et il n’est pas nécessaire d’avoir une grande expertise technique pour créer et publier une image ou une vidéo deepfake. Dans ce contexte, l’augmentation de la « sextorsion » à l’aide de deepfakes, qui consiste à diffuser largement des images fabriquées et non consensuelles sur des sites pornographiques pour harceler les femmes, est de plus en plus préoccupante.

Une fois diffusées en ligne, les deepfakes pornographiques générés par l’IA peuvent être reproduits de nombreuses fois, partagés et stockés sur des appareils privés, ce qui les rend difficiles à localiser et à supprimer.

Image
photo d'une femme regardant son téléphone portable
La violence facilitée par la technologie ne se limite pas à ce qui se passe sur les écrans. Ce qui se passe en ligne déborde facilement dans la vie réelle et s'intensifie. (Photo d'archive posée par un mannequin) Illustration photographique : ONU Femmes/Ryan Brown

Que doit faire une personne dans les 24 heures qui suivent l’apparition en ligne d’un deepfake ou d’une image trafiquée d’elle ?

Il n’y a pas de bonne ou de mauvaise manière de réagir, mais les expert·e·s soulignent qu’il est essentiel de demander des comptes aux coupables : les créateurs des images, les annonceurs, les plateformes qui les hébergent et les personnes qui les utilisent. Si vous êtes victime d’un tel abus, les expert·e·s vous recommandent de contacter les organisations qui disposent des informations les plus récentes sur les moyens de vous aider.

Voici quelques ressources, dont la liste n’est pas exhaustive :

  1. Stop non-consensual image-abuse aide les victimes de pornographie vengeresse et empêche le partage en ligne d’images intimes. Si votre image intime se trouve entre les mains de quelqu’un qui pourrait l’utiliser à mauvais escient, StopNCII.org peut générer un code de hachage (une empreinte numérique) de l’image qui empêchera quiconque de la partager.
  2. Le Chayn Global Directory (Annuaire mondial de Chayn) propose une liste d’organisations et de services qui aident les survivantes de la violence basée sur le genre, à la fois en ligne et en personne.
  3. Le Online Harassment Field Manual – Help Organisations Directory (Manuel pratique sur le harcèlement en ligne – Annuaire des organisations d’aide) est un annuaire des organisations régionales et internationales, qui aide les journalistes, les activistes et les autres personnes confrontées à des abus en ligne, et qui propose des conseils en matière de sécurité numérique, des références et des contacts en cas d’urgence.
  4. La Fondation Cybersmile propose un service mondial qui offre un soutien émotionnel aux utilisateur·rice·s victimes de cyberintimidation ou d’abus en ligne et les oriente vers des ressources utiles.
  5. Take it down aide à supprimer les images de mineures dénudées en ligne.

Pour plus de conseils, voir notre article Guide pratique pour la sécurité en ligne : ce que toutes les femmes et les filles devraient savoir.

Existe-t-il des lois qui protègent les femmes des abus générés par l’IA ?

Moins de la moitié des pays disposent de lois permettant de poursuivre les auteurs d’abus en ligne et, lorsque de telles lois existent, elles sont peu appliquées.

En outre, les victimes signalent rarement ces faits et ont peu accès à la justice, et les plateformes technologiques ne sont pas tenues de rendre des comptes. La nature transnationale des abus numériques générés par l’IA ne fait qu’aggraver l’impunité de leurs auteurs.

L’appel à l’action d’ONU Femmes pour les 16 Jours d’activisme comprend la nécessité de lois et de leur application pour garantir la responsabilisation des auteurs, ainsi qu’un meilleur soutien aux victimes et aux survivantes et l’acquisition de compétences numériques par les femmes et les filles.

Les lois commencent à s’adapter aux tendances émergentes, bien qu’elles aient du mal à suivre le rythme des développements rapides de l’IA générative. En voici quelques exemples :

  • La loi britannique sur la sécurité en ligne (Online Safety Act) (adoptée en 2023) a rendu illégal le partage d’images ou de vidéos explicites qui ont été manipulées numériquement. Cependant, cette loi n’empêche pas la création de deepfakes pornographiques ni leur partage lorsque l’intention de provoquer de la détresse ne peut être prouvée.
  • Le Règlement de l’UE sur l’IA (2024) favorise la transparence en exigeant des créateurs de deepfakes qu’ils informent le public de la nature artificielle de leur travail, et des fournisseurs d’outils d’IA à usage général qu’ils ajoutent une balise HTML aux contenus générés par l’IA.
  • Au Mexique, la Ley Olimpia reconnaît et punit la violence numérique. Elle a inspiré des législations similaires dans d’autres pays de la région : l’Argentine, le Panama et l’Uruguay devraient suivre.
  • Une législation australienne est en cours d’introduction pour renforcer les lois ciblant la création et la diffusion en ligne non consensuelle de matériel sexuellement explicite, y compris le matériel créé ou modifié à l’aide de l’IA générative et les deepfakes.
  • L’une des approches recommandées implique une coopération mondiale et une réglementation sectorielle imposant des normes de sécurité et d’éthique avant la mise à la disposition des outils d’IA auprès du public. La Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle en propose un modèle. L’organe consultatif de haut niveau des Nations Unies sur l’IA, récemment créé et représenté par le Pacte numérique mondial des Nations Unies, est un autre exemple de ces efforts coordonnés.

Paola Gálvez-Callirgos, experte en politique et gouvernance de l’IA et des technologies numériques, met en garde : « Il n’existe pas de modèle unique pour la gouvernance de l’IA. Les décideurs politiques doivent tenir compte de l’importance de la culture et du contexte national. »

Toutefois, elle estime que tous les pays peuvent prendre quelques mesures essentielles pour criminaliser toutes les formes de violence envers les femmes facilitée par la technologie et investir dans le renforcement des capacités institutionnelles afin de permettre l’application de la loi.

Une autre faille qu’elle recommande de combler par la législation consiste à rendre obligatoire la provenance du contenu, c’est-à-dire donner la possibilité de retracer l’historique des actifs numériques. « Les producteurs d’outils médiatiques synthétiques doivent joindre des références de contenu vérifiables (métadonnées dans le fichier ou filigrane robuste/provenance selon des normes de type C2PA) qui permettent aux plateformes et aux enquêteurs de détecter l’origine du fichier et ses manipulations », explique-t-elle. « Cela facilitera le filtrage automatisé des fichiers et cela compliquera la tâches des auteurs de délits qui souhaiteraient démentir leur origine de manière plausible. »

Paola Gálvez-Callirgos fait partie de l’école IA d’ONU Femmes, un cours gratuit, sur invitation, actuellement proposé aux organisations de défense des droits des femmes dans le cadre du programme ACT pour mettre fin aux violences à l’égard des femmes pour leur apprendre à utiliser les outils d’IA de manière éthique à des fins de plaidoyer, à influencer l’élaboration de politiques en matière d’IA et à exploiter les outils d’IA de manière responsable en vue de prévenir et combattre la violence envers les femmes. Ce cours comprend également des conférences d’expertes et des laboratoires d’innovation ouverts au public.

Image
Paola Gálvez-Callirgos, AI and technology policy expert. Photo: Richard Avila, Courtesy of Paola Gálvez-Callirgos

« La confiance est essentielle à la réussite de l’adoption de l’IA. Une innovation qui renforce la confiance, est inclusive et prévient les préjudices est, à terme, plus durable et largement adoptée qu’une innovation qui sape ces valeurs. »

Paola Gálvez-Callirgos, experte en IA

Que devraient faire les entreprises technologiques pour prévenir les abus en ligne alimentés par l’IA ?

Les entreprises technologiques ont un rôle essentiel à jouer dans la prévention et l’arrêt de la violence numérique générée par l’IA. Elles devraient :

  1. Rendre les outils de deepfake pornographique ou de « nudité » inaccessibles aux consommateurs et aux enfants.
  2. Refuser d’héberger des images et des vidéos créées par ces outils.
  3. Développer des fonctions de signalement claires et facilement accessibles pour répondre aux abus et réagir rapidement et efficacement lorsqu’une victime signale du contenu abusif.
  4. Mettre en œuvre des solutions proactives pour identifier les contenus falsifiés, y compris la vérification automatique des filigranes détectables par algorithme.
  5. Rendre obligatoire le marquage ou l’identification des contenus générés par l’IA.
  6. Recruter davantage de femmes à des postes de chercheuses et conceptrices de technologies et collaborer avec des organisations de femmes lors de la conception des technologies d’IA.

Des contenus misogynes en ligne aux préjudices subis dans la vie réelle : la manosphère, les abus numériques, et comment parler aux garçons et aux hommes ?

« L’explosion de la technologie de l’IA et l’extrême misogynie toxique de la manosphère se renforcent mutuellement avec vigueur », déclare Laura Bates. « Les outils d’IA permettent de diffuser plus largement le contenu de la manosphère, par des ajustements algorithmiques qui donnent la priorité à des contenus de plus en plus extrêmes afin de maximiser l’engagement. »

La « manosphère » est une partie de plus en plus importante du monde numérique et se compose d’un réseau informel de communautés en ligne qui prétendent s’intéresser aux problèmes des hommes, par exemple la rencontre de partenaires potentielles, leur forme physique ou la paternité, mais qui, bien souvent, prodiguent des conseils préjudiciables et favorisent les attitudes misogynes. Ce contenu gagne du terrain : les deux tiers des jeunes gens s’intéressent régulièrement aux influenceurs de la masculinité, et le contenu de la manosphère ne se contente pas de normaliser la violence à l’égard des femmes et des filles, mais a aussi des liens de plus en plus étroits avec la radicalisation et les idéologies extrémistes. En savoir plus sur la manosphère et sur ce que vous pouvez faire.

Grâce à la facilité des outils d’intelligence artificielle, les utilisateurs en ligne peuvent désormais produire et diffuser du matériel de propagande, y compris de fausses informations et statistiques, afin de recruter des jeunes gens vulnérables et de les inciter à adopter des idéologies misogynes et extrémistes.

Selon les expertes, il est vital d’entamer la discussion plus tôt, car la prévention est beaucoup plus efficace que la déradicalisation. Une grande partie de la prévention consiste à donner aux jeunes une culture numérique et à leur enseigner le scepticisme à l’égard des sources : qui dit quoi et pourquoi, et comment vérifier la crédibilité de l’information.

Quelques conseils utiles pour parler aux hommes et aux garçons qui consomment des contenus misogynes et abusifs en ligne :

  • Utilisez un cadre calme, encourageant et dénué de jugement.
  • Cherchez les craintes ou les préoccupations potentielles qui ont pu être alimentées par ce contenu.
  • Travaillez ensemble pour trouver des informations impartiales afin de répondre à ces craintes.
  • Parlez des nombreuses façons dont les hommes et les garçons subissent les conséquences négatives du patriarcat et des stéréotypes de genre.
  • Demandez-leur de chercher à comprendre si les personnalités en ligne qui prétendent défendre les hommes et les garçons les aident ou contribuent à leur nuire.
  • Discutez de la question de savoir qui tire profit du contenu et comment.

Les modèles masculins ont un rôle crucial à jouer dans ce domaine : les conversations avec leur père, un oncle, un frère, un enseignant, un entraîneur sportif ou un animateur de jeunesse peuvent être plus efficaces pour aider les garçons à réexaminer ce contenu.

Quelles sont les trois habitudes qui peuvent contribuer à la sécurité en ligne de toutes et tous à l’heure actuelle ?

Nos expertes numériques recommandent les actions suivantes :

  1. Éduquez – acquérez vous-mêmes des compétences numériques et inculquez-en aux autres, apprenez et apprenez-leur à remettre en question les sources, et formez-vous, et formez-les, aux réalités des abus facilités par l’IA. Comprendre le fonctionnement de ces outils et leur impact sur les femmes est la première étape d’un changement significatif.
  2. Soyez prudente – Utilisez des mots de passe robustes et uniques, activez l’authentification à deux facteurs pour tous vos comptes, utilisez des profils privés et vérifiez régulièrement vos paramètres de confidentialité sur toutes les plateformes et applications de réseaux sociaux afin de protéger vos informations personnelles. Pour plus de conseils sur les moyens de repérer les signes d’abus en ligne, lisez notre article Online Safety 101.
  3. Agissez – Demandez des comptes aux plateformes technologiques et aux entreprises qui créent des outils d’IA et en tirent profit. Et suivez et soutenez les campagnes féministes qui travaillent sur le sujet. Diffusez leur contenu, signez leurs pétitions ou contactez votre représentant légal pour montrer à quel point cette question vous tient à cœur.

« La clé réside dans la responsabilisation et la réglementation, la création de systèmes dans lesquels les outils d’IA doivent répondre à des normes de sécurité et d’éthique avant leur déploiement auprès du grand public, les plateformes sont tenues responsables du contenu qu’elles hébergent, et la responsabilité de la prévention passe des victimes potentielles à ceux qui créent des technologies nocives et en tirent profit », conclut Laura Bates.

Certaines personnes se demandent si les réglementations et la gouvernance de l’IA la rendraient moins innovante, mais ce n’est pas l’avis de Paola Gálvez-Callirgos : « la dichotomie ‘réglementation ou innovation’ est une idée fausse tirée de l’évolution non réglementée des réseaux sociaux au cours de la dernière décennie », dit-elle.

La gouvernance de l’IA ne consiste pas à interdire l’invention, mais plutôt à mettre en place des garde-fous qui orientent l’innovation vers des résultats bénéfiques pour l’ensemble de la société, explique-t-elle. « La confiance est au cœur de l’adoption réussie de l’IA. L’innovation qui instaure la confiance, est inclusive et prévient les dommages est, en fin de compte plus durable et plus largement adoptée que celle qui sape ces valeurs. »

16 Jours d’activisme : #PasDExcuse pour la violence en ligne

Les espaces numériques et en ligne devraient donner aux femmes et aux filles les moyens d'agir. Pourtant, chaque jour, pour des millions de femmes et de filles, le monde numérique est devenu un véritable champ de mines où se mêlent harcèlement, abus et contrôle.

Du 25 novembre au 10 décembre, rejoignez la campagne UNiTE pour vous informer et agir afin de mettre un terme aux violences numériques subies par les femmes et les filles.

Rejoignez la campagne