L’intelligence artificielle générative de contenus pédocriminels

L’intelligence artificielle générative de contenus pédocriminels

Главная страница » L’intelligence artificielle générative de contenus pédocriminels
Violences sexuellesdossier

La Fondation pour l’Enfance avertit, dans un rapport publié ce mardi 29 octobre, d’un usage de plus en plus répandu de l’intelligence artificielle dans les réseaux de pédocriminalité. Une sonnette d’alarme particulièrement forte pour la France, neuvième pays hébergeur de ces contenus criminels.

En seulement un mois – du 1er au 30 septembre 2023 –, pas moins de 20 254 images pédocriminelles générées par l’intelligence artificielle ont été postées sur un forum du darkweb, pour un total de 261 920 consultations. Ces chiffres effarants collectés par Internet Watch Foundation, ont été repris dans le rapport de la Fondation pour l’Enfance, publié ce mardi 29 octobre, sur le rôle que jouent ces nouveaux outils dans la multiplication de contenus pédopornographiques. L’intelligence artificielle générative, qui permet de créer «à l’infini», fait fleurir, surtout en ligne, des vidéos d’enfants virtuels en train d’être violés ou des images d’adolescentes dénudées, dont seul le visage est réel.

Même s’il s’agit de montages, «c’est grave parce que cela contribue à la banalisation des pratiques pédocriminelles et à l’objectification de l’enfant», souligne Angèle Lefranc, chargée de plaidoyer de cette fondation. C’est d’autant plus grave que la consommation aisée de contenus pédopornographiques augmente les risques de passage à l’acte : «52% des consommateurs pensent que leur usage de contenus pédocriminels pourrait aboutir à une agression sur un enfant», révèle le rapport.

Pénaliser les montages à caractère sexuel de mineurs

En 2023, la France figurait au cinquième rang européen et au neuvième rang mondial des pays hébergeant le plus de contenus pédocriminels au monde. Face à cette situation, la Fondation pour l’Enfance appelle les acteurs politiques, juridiques et technologiques à mettre en place une «réponse forte, rapide et coordonnée». Principale «difficulté» pour lutter contre ces pratiques : l’intelligence artificielle est en «constante évolution» et les personnes «qui consomment des contenus pédocriminels, très au fait des nouvelles technologies, s’en emparent rapidement», détaille la chargée de plaidoyer.

A lire aussi

La Fondation pour l’enfance recommande une sensibilisation du grand public car «50% des images ou des vidéos d’enfants échangées sur les forums pédocriminels ont été initialement publiées par leurs parents via les réseaux sociaux», signale l’organisme de protection. De son côté, Angèle Lefranc souligne aussi un cercle vicieux : «Les photos de leurs enfants en maillot de bain publiées sur les réseaux sociaux peuvent servir à entraîner des intelligences artificielles» à visée pédopornographique.

Informer les internautes ne suffit pas. La fondation demande aux pouvoirs publics de se charger de la question juridique en pénalisant la création de montages à caractère sexuel représentant des mineurs. A l’heure actuelle, le «vide juridique» sur ce sujet «permet à la pratique de s’intensifier».

Autre conséquence de cette multiplication de contenus pédopornographiques : il devient plus difficile pour les forces de l’ordre d’identifier et de protéger les enfants réellement victimes de violences sexuelles qui apparaissent dans ces contenus. Pour cela, les auteurs de ce rapport recommandent d’inciter les acteurs privés à coopérer pour mettre en place des outils permettant de distinguer les contenus générés par intelligence artificielle des contenus réels.

Libération

Post navigation

Leave a Comment

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *