Spécialisée dans la génération de texte, Syllabs voit aujourd’hui arriver un concurrent de taille : ChatGPT. Son cofondateur, Claude de Loupy, explique en quoi OpenAI peut changer la donne.
Comment expliquez-vous l’emballement actuel autour de ChatGPT ? Cet outil va-t-il vraiment plus loin que tout ce qui existait jusque-là ?
ChatGPT n’est pas très différent de GPT3 [le modèle de langage développé jusque-là par la société OpenAI, ndlr], mais il est beaucoup plus ludique. N’importe qui peut dialoguer avec ChatGPT ; on pose sa question, et il nous répond. Sa facilité d’usage explique le succès qu’il rencontre aujourd’hui. De plus, cela fait plusieurs années déjà que les LLM (large language models) existent mais on trouve aujourd’hui avec ChatGPT, non pas un aboutissement, mais une étape assez fondamentale. C’est un chatbot qui a été entraîné sur des réponses humaines et, surtout, qui se souvient de ce qui a été dit, ce qui permet à ChatGPT de passer un cap par rapport aux chatbots qui existaient jusque-là.
Quel est le potentiel de l’IA pour écrire à notre place ?
Le potentiel de ChatGPT est énorme. Il permet de produire du contenu de manière très simple sur n’importe quel sujet. Le résultat est intéressant et très rapide à produire, mais on est davantage sur une aide que sur un outil qui permet une publication sans relecture, comme nous pouvons le proposer avec Syllabs. Ça répond à un besoin différent.
En quoi est-ce si différent ?
Avec Syllabs, pour garantir un texte parfait [comme plusieurs médias tel Le Monde ont pu le faire à l’occasion de résultats d’élections, ndlr], nous sommes obligés de passer par un paramétrage humain. C’est ça qui garantit un haut niveau de fiabilité, même si c’est coûteux et long. On est dans de la programmation, et non dans du machine learning, comme peut l’être ChatGPT. Avec les réseaux de neurones, on est dans une boîte noire qu’on ne sait pas contrôler. Pour cette raison, on ne peut pas faire confiance à ChatGPT.
Pour quelles raisons ?
L’un des principaux risques de ChatGPT, c’est que ses réponses soient fausses. Il a aussi ce qu’on appelle des hallucinations. Sa raison d’être, c’est de parler, et donc quand on lui demande par exemple de décrire un appareil photo, il invente des choses qui pourraient décrire un appareil photo. Mais selon moi, le principal danger de ChatGPT touche à la pollution informationnelle. Comme le font déjà les fermes de contenus pour faire du positionnement dans Google voire même pour faire de la pollution informationnelle, ChatGPT rend encore plus facile la production de textes bien écrits, et donc crédibles. On va voir fleurir beaucoup de choses autour de ça.
Faut-il se sentir menacé par ChatGPT ?
ChatGPT aura des répercussions sur certains métiers. Sur des métiers intellectuels, on n’y est pas, mais sur les métiers qui demandent de l’interaction, comme le SAV ou le paiement en caisse, il va y avoir un choc. C’est un système qui est capable d’interagir sur quelque chose de très précis, comme par exemple sur les caisses automatiques, mais avec une connaissance langagière globale. C’est en cela que ça va beaucoup plus loin que les chatbots, qui ne savaient plus quoi répondre quand on leur parlait de quelque chose qui n’était pas prévu. ChatGPT a appris sur toutes les expressions langagières. C’est ça qui donne un système d’interaction très puissant. À voir comment cela va se mettre en place.
Quels sont les défis que devra relever à moyen terme ChatGPT ?
Il y a d’abord le passage à l’échelle, avec le lancement d’un modèle payant pour une utilisation plus intensive. Mais avec l’accord qui vient d’être trouvé avec Microsoft [le groupe américain a confirmé invertir plusieurs milliards de dollars dans OpenAI], ça devrait les y aider. Il y a ensuite la question de la fiabilité, qui est centrale. Parmi les pistes sur lesquelles OpenAI travaille, il y a le fait d’utiliser des bases de connaissances plus ou moins validées. Cela devrait énormément améliorer les choses sur des questions génériques, mais c’est plus compliqué sur des notions plus philosophiques ou techniques. Et il y a un danger à ce que le reste paraisse en conséquence beaucoup plus fiable. Enfin, au-delà de ChatGPT, il y a l’enjeu de savoir comment détecter la génération automatique. J’espère que les gros acteurs de l’IA générative mettront en place de tels systèmes de détection, mais je pense qu’à un moment donné, il faudra forcer l’affichage et ça ne pourra passer que par la législation.