:quality(70):focal(1070x812:1080x822)/cloudfront-eu-central-1.images.arcpublishing.com/liberation/GXARTUTHIVBKVJC3V62RC6X2JY.jpg)
Un nouvel exemple glaçant des «hallucinations» de l’IA. Un internaute norvégien, horrifié que ChatGPT l’ait présenté à tort comme un criminel ayant tué deux de ses enfants, a porté plainte dans son pays contre l’éditeur du robot conversationnel, OpenAI, a annoncé ce jeudi 20 mars une association qui milite pour le respect de la vie privée.
«ChatGPT donne régulièrement de fausses informations […] qui peuvent gravement nuire à la réputation d’une personne, accusant indûment des gens de corruption, de maltraitance d’enfants ou même de meurtre», dénonce dans un communiqué l’ONG Noyb, basée à Vienne.
Décryptage
Après déjà une première plainte en Autriche en avril 2024, l’association se tourne cette fois vers l’autorité norvégienne de protection des données (Datatilsynet) pour dénoncer le cas de cet internaute, Arve Hjalmar Holmen, qui avait obtenu ce surprenant résultat après avoir demandé à ChatGPT d’écrire son portrait. «Certains se disent qu’il n’y a pas de fumée sans feu. C’est ce qui me fait le plus peur, que quelqu’un puisse accorder de la véracité à ces dires», s’inquiète le plaignant, cité dans le communiqué.
Depuis cet incident, le groupe américain Open AI, créateur de cette interface d’intelligence artificielle (IA) générative, a mis à jour son modèle et ne présente plus Arve Hjalmar Holmen comme un meurtrier. Mais ces fausses données peuvent rester dans les systèmes internes, déplore l’ONG Noyb (pour «None of your business», signifiant en anglais «Ce ne sont pas vos affaires»). «En permettant sciemment à son modèle d’IA de créer des résultats diffamatoires, OpenAI viole le principe d’exactitude» inscrit dans le Règlement général européen sur la protection des données (RGPD), estime l’ONG qui réclame «une suppression» des éléments incriminés, des améliorations de la technologie et «une amende administrative».
Open AI n’a pas publiquement réagi pour le moment. Dans des procédures similaires par le passé, elle s’était défendue en faisant valoir une clause de non-responsabilité. Pour Joakim Söderberg, avocat chez Noyb, ce «n’est manifestement pas suffisant» : «Vous ne pouvez pas diffuser de fausses informations et, à la fin, ajouter un petit avertissement disant que tout ce que vous avez dit n’est peut-être pas vrai…»
Lancé en novembre 2022 par OpenAI, ChatGPT a été pris d’assaut par des utilisateurs impressionnés par sa capacité à fournir une réponse détaillée et circonstanciée à une question, ou à générer du contenu écrit, sonore ou visuel sur requête en langage courant. Les modèles se sont depuis multipliés, principalement aux Etats-Unis et en Chine.
Leave a Comment