Une nouvelle technique d’intelligence artificielle cherche à combiner les récents modèles avec les plus anciens. Cela permettrait de résoudre bien des questions. Explications.
Le 18 janvier, la société savante Aristote organisait un séminaire sur les avancées en matière d’intelligence artificielle hybride, hypothétiquement à l’origine de ChatGPT-4, et qui ouvre de nouveaux espoirs pour le monde de l’IA.
- Deux types d’IA
L’intelligence artificielle que l’on voit se développer est une technologie de « machine learning » ou d'apprentissage automatique. On l’appelle l’IA Connexionniste. Elle consiste à entraîner des algorithmes de types « réseaux de neurones », sur de gigantesques bases de données. Celle-ci a pris son essor après 2010, à la suite des progrès réalisés dans les supercalculateurs (grands ordinateurs) et que les bases de données, via le web, se sont densifiées. Mais « l’intelligence artificielle » existait depuis longtemps. Elle consistait en un ensemble de règles fixées d’avance, qui permettaient de piocher dans des bases de données pour exécuter une tâche. C’est ainsi que l’on fait des chatbots par arborescence. Les réponses sont fixées, et on établit des règles de réponses en fonction des questions posées par l’utilisateur, via un arbre décisionnel. Cette IA s’appelle l’IA symbolique. Elle a notamment progressé dans les années 80. « La différence entre l’IA connexionniste et l’IA symbolique, c’est un peu comme un cuisinier qui apprendrait en testant plein de choses différentes avec des ingrédients et en goûtant à chaque fois pour savoir si c’est bon, et un autre qui apprendrait tous les livres de recettes et exécuterait les plats en suivant strictement les indications », détaille Arthur Ledaguenel, doctorant qui a rédigé une thèse sur le sujet à Paris-Saclay.
- Pourquoi hybrider les deux ?
Depuis les progrès de l’IA connexionniste, notamment avec la sortie de ChatGPT fin 2022, les gouvernants s’inquiètent. Si elle est rapide, flexible, elle a des problèmes de « robustesse », notamment des hallucinations, c’est-à-dire des erreurs dans ses résultats. Même les meilleurs champions superentraînés peuvent faire un mauvais match de tennis. Et cela devient problématique quand il ne s’agit pas de balles dans un terrain, mais de piloter un engin militaire, de prendre une décision financière, ou d’écrire une information fausse. En outre, les supercalculateurs et les grandes bases de données nécessitent beaucoup d’énergies et posent la question de sa sobriété. Autre point noir : elle n’est pas très explicable, et l’on ne sait souvent pas comment elle a produit son raisonnement. Tandis que l’IA symbolique, si elle offre moins de performances pour certaines tâches (comme la reconnaissance d’images) et qu’elle est moins rapide, elle permet d’éviter les erreurs, et l’on comprend son raisonnement. « C’est comme si vous demandiez au cuisinier de ne pas utiliser tel ou tel ingrédient », ajoute Arthur Ledaguenel. En revanche, elle aussi, pose des questions de sobriété.
- En quoi c’est une promesse d’avenir ?
Arriver à construire des systèmes qui mélangent les deux types d’intelligences artificielles pourrait tirer parti du meilleur des deux mondes, et permettrait de rassurer les autorités en donnant un cadre à l’apprentissage automatique, tout en rendant certaines décisions plus explicables, donc transparentes. Reste toujours, en revanche, la question de la sobriété