ChatGPT suscite l’enthousiasme du monde de la communication et des RP. Mais par leur principe même de fonctionnement, les IA génératives posent des questions en termes d’éthique, de sécurité et de lutte contre la désinformation. D'où l'importance de comprendre comment elles fonctionnent.

Pour fonctionner, l’IA générative a besoin de data, de beaucoup de données, qu’elle va comparer, combiner et assembler selon ce que semble lui demander l’utilisateur. C’est ce qu’on appelle le pré-apprentissage. ChatGPT a montré une évolution tellement impressionnante dans ce domaine que tout semble possible. La tentation est forte de prendre les résultats pour argent comptant.

Pourtant, en ce qui concerne les données, des réflexions en matière d’éthique et de sécurité s’imposent. L’origine des données tout d’abord : entre celles qui sont déjà collectées par l’IA et celles que nous lui donnons, rien ne garantit que confidentialité et sécurité soit au rendez-vous, bien au contraire. On citera l’exemple de Samsung, dont des ingénieurs ont fourni du code confidentiel, le mettant ainsi à la portée de  tous.

Le risque est grand qu’un non-initié fournisse de la donnée sensible à ChatGPT, ce qui fait peser une menace majeure sur nos engagements de confidentialité vis-à-vis de nos clients, et sur nos propres agences, dont les activités n’ont pas à atterrir sur les écrans de nos  concurrents. Le fameux adage start-up, «si c’est gratuit, c’est toi le produit», s’applique aussi à ChatGPT : la version gratuite nous incite à fournir de la donnée en masse, un élément que l’euphorie autour de la nouveauté peut vite faire oublier.

Prendre le marché et les droits d’auteur

A l’instar de géants comme Meta ou Uber, OpenAI n’est pas philanthrope. Son objectif : prendre le marché avec sa technologie par adoption massive, sans s’encombrer de principes juridiques qui pourraient entraver sa route. Ces entreprises misent sur le fait que le législateur ne pourra qu’aller dans le sens de la volonté du nombre, et ne le fera que très lentement, laissant le champ libre à la croissance du business.

Tout est conçu pour créer l’addiction et obtenir toujours plus de données au passage. OpenAI ne se soucie guère des propriétés de brevets ou des droits d’auteur. Ceci contrevient aux principes de notre profession où l’indication de source, le copyright et les droits d’auteurs doivent être respectés. Tout consultant RP paie ses droits à la copie d’article. Il y a ainsi une forme de non-sens dans le fait d’avoir recours à un outil qui s’en dédie pour l’instant.

Sacrifier la vérité au profit de la quantité

Dans les données que l’IA générative brasse au gré de nos questions, toutes ne sont pas fiables. Elle se nourrit de ce que nous lui donnons, bon comme mauvais, vrai comme faux. La mécanique de ces applications, même si leur évolution est rapide, comporte un un risque d’inexactitude des contenus. Un cabinet US vient d’être condamné pour l’utilisation de jurisprudence et d’arrêtés donnés par ChatGPT qui n’existaient pas. Prendre tout ce que l’IA nous délivre comme argent comptant, sans rien questionner, est un risque immédiat de désinformation que les professionnels des RP souhaitent éviter et ne peuvent se permettre.

C’est un fait : les journalistes sont littéralement débordés. Ils reçoivent quotidiennement des centaines de mails, et il est de plus en plus difficile de les contacter. Le mass mailing inspiré des start-up a déjà eu pour conséquence de faire augmenter les envois. Certains espèrent que ce volume peut mener à décrocher une retombée. Cette méthode ne fonctionne pas : une bonne retombée médiatique n’est jamais le fruit du volume mais celui de la précision, fondée sur la qualité de la relation avec le journaliste. Ne faisons pas de ChatGPT une usine à production de contenus massive. Cet outil doit rester un facilitateur, et non un faiseur. La lutte contre l’infobésité commence par nous, en appliquant à nous-mêmes une discipline d’à propos et de justesse, pour favoriser une reprise d’informations de qualité.

Les IA génératives sont une technologie très prometteuse pour nos métiers, mais pour en tirer le plein bénéfice, il faut en examiner les failles et les risques, en nous rapprochant des experts de cette technologie. Loin des béatitudes, considérons ChatGPT comme un allié en puissance, que nous devons faire évoluer selon nos exigences et notre éthique métier.