L'autorité italienne de protection des données a interdit l'intelligence artificielle d'OpenAI avec «effet immédiat» considérant qu'elle ne respecte pas le RGPD en matière de protection des données. Une décision importante qui pourrait inspirer les autres Cnil. OpenAI a 20 jours pour répondre à l'Autorité.
La décision va faire couler beaucoup d'encre. L'Italie a annoncé vendredi bloquer le robot conversationnel ChatGPT pour des craintes liées à l'utilisation des données, deux mois après avoir banni Replika, un autre programme commercialisé comme un « ami virtuel ».
Dans un communiqué, l'Autorité italienne de protection des données personnelles prévient que sa décision a un « effet immédiat » et accuse ChatGPT de ne pas respecter la réglementation européenne et de ne pas avoir de système pour vérifier l'âge des usagers mineurs. Cette décision aura pour conséquence « la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d'OpenAI », l'entreprise à l'origine de l'application, ajoute-t-elle.
ChatGPT est apparu en novembre et a rapidement été pris d'assaut par des utilisateurs impressionnés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets ou du code informatique.
Financé par le géant informatique Microsoft qui l'a ajouté à plusieurs de ses services, il est parfois présenté comme un potentiel concurrent au moteur de recherche Google.
Lire aussi: Qui veut prendre la place de Google Search
L'Autorité italienne souligne dans son communiqué que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant ». Elle lui reproche aussi « l'absence d'une note d'information aux utilisateurs, dont les données sont récoltées par OpenAI, mais surtout l'absence d'une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d'+entraîner+ les algorithmes faisant fonctionner la plateforme ».
En outre, alors que le robot est destiné aux personnes ayant plus de 13 ans, « l'Autorité met l'accent sur le fait que l'absence de tout filtre pour vérifier l'âge des utilisateurs expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement ».
Grandes craintes
La même institution avait bloqué début février l'application Replika, qui propose de bavarder avec un avatar sur-mesure. Certains utilisateurs s'étaient plaint de recevoir des messages et images trop osés, proches du harcèlement sexuel.
Cette fois, l'Autorité demande à OpenAI de « communiquer d'ici 20 jours les mesures entreprises » pour remédier à cette situation, « sous peine d'une sanction allant jusqu'à 20 millions d'euros ou jusqu'à 4% du chiffre d'affaires mondial annuel », le maximum prévu par le Règlement européen sur les données personnelles (RGPD).
Cette affaire montre que le RGPD, qui a déjà entraîné pour les géants de la tech des milliards de dollars d'amendes, pourrait devenir également l'ennemi des nouvelles IA génératrices de contenus.
L'Union européenne prépare en outre un projet de loi pour réguler l'intelligence artificielle, qui pourrait être finalisé fin 2023 ou début 2024, pour une application encore quelques années plus tard. Car l'IA nourrit des craintes bien plus profondes que la seule exploitation des données personnelles.
L'agence de police européenne Europol a averti lundi que les criminels étaient prêts à tirer parti de l'intelligence artificielle comme le robot conversationnel ChatGPT pour commettre des fraudes et d'autres cybercrimes. Du hameçonnage (phishing) à la désinformation ou aux logiciels malveillants, les capacités en constante évolution des robots de conversation (« chatbots ») sont susceptibles d'être rapidement exploitées par des personnes mal intentionnées, a estimé Europol dans un rapport.
Ils peuvent également être utilisés pour tricher lors d'examens et ChatGPT avait été bloqué peu après sa sortie dans plusieurs écoles ou universités dans le monde. De grandes sociétés ont aussi déconseillé à leurs employés d'utiliser l'application, par crainte de fuite de données sensibles.
Lire aussi: IA : les chercheurs hésitent, Microsoft avance
Enfin, le milliardaire Elon Musk, l'un des fondateurs d'OpenAI dont il a ensuite quitté le conseil d'administration, et des centaines d'experts mondiaux ont signé mercredi un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que GPT-4, la dernière version du logiciel sur lequel repose ChatGPT lancée lancé mi-mars, en évoquant « des risques majeurs pour l'humanité ».