Décrit comme l’un des fondateurs du machine learning, patron de la recherche scientifique en IA de Meta et toujours dans une démarche de réassurance vis-à-vis de l’intelligence artificielle, Yann Le Cun revient en exclusivité pour Stratégies sur les peurs et le traitement médiatique de cette technologie, qui n'est pas si nouvelle pour lui…
Quand il s’agit d’intelligence artificielle, dans les médias, vous avez toujours une position que l’on pourrait qualifier de « rassuriste ». Est-ce une conviction profonde, ou une stratégie médiatique délibérée ?
Yann Le Cun. Ah non, je suis vraiment convaincu de tout ce que j’avance. Si je ne l’étais pas, je ne travaillerais pas sur ce sujet. Si je pensais que l’IA ou la technologie de manière générale pouvait avoir un quelconque effet délétère sur la société, je ferais autre chose. Je suis bien évidemment convaincu du bien-fondé de tout cela pour l’amélioration de la condition humaine.
Mais vous n’avez jamais des périodes de doute ?
Les doutes ne viennent pas de la technologie elle-même, mais des possibles utilisations que les autres en font. On peut avoir des différences d’opinions sur ses effets à long terme, en fonction de la confiance qu’on peut avoir dans la capacité des institutions nationales ou internationales à faire ce qu’il faut pour maximiser les bonnes conséquences et minimiser les mauvaises. C’est ce qui me distingue de certains de mes collègues, comme mon ami Yoshua Bengio [avec qui il a publié plusieurs papiers scientifiques fondamentaux] qui a une attitude plus circonspecte, et qui pense que, par défaut, la société n’est pas organisée pour tirer le meilleur parti des avancées technologiques.
Donc selon vous, c’est à la société de fournir des efforts pour s’organiser autour des nouvelles technologies ?
La société est déjà organisée autour de cela. Souvent, lorsqu’on a des progrès technologiques qui peuvent avoir un gros impact sur la société, vous avez des autorisations de mises sur le marché, des lois pour éviter des débordements, couplées à des phénomènes d’autorégulation, qui font que les entreprises n’ont aucune motivation à mettre sur le marché un produit qui est dangereux à court terme. La question du long terme, elle, est différente, et met en jeu les motivations des individus, des sociétés ou d’organisation. Dans le cadre de l’IA, certains ont peur d’une utilisation de l’IA par des gens mal intentionnés qui ne seraient pas des individus, mais des groupes terroristes ou des pays mis à l’index par la communauté internationale.
On pourrait donc assister à des différences d’implémentation de l’IA selon les pays et les choix qui seraient faits par les sociétés ?
Oui. Et on pourrait faire l’analogie avec l’apparition de l’imprimerie, à la fin du XVe siècle, où certaines régions du monde ont résisté à son éclosion, d’autres ont moins réussi à la limiter. Évidemment, cette technologie de dissémination du savoir, qui a limité le pouvoir de contrôle des gouvernements et des Églises, a permis en Europe aux populations d’apprendre à lire, à échapper à la religion, à disséminer le rationalisme de la science, de la philosophie, et in fine, à détruire le système féodal. À l’inverse, cela ne s’est pas du tout passé de la même façon dans l’Empire ottoman, qui a interdit l’utilisation de l’imprimerie. Et selon certaines personnes, comme le ministre de l’Intelligence artificielle, aux Émirats arabes unis [Omar Sultan Al Olama], ce choix a été une des causes majeures du déclin de l’Empire ottoman. Je pense que nous pouvons faire le parallèle avec l’intelligence artificielle. Cette technologie va amplifier l’intelligence humaine, comme l’ont fait l’imprimerie et la dissémination des livres. Nous aurons chacun des assistants personnels avec qui l’on pourra converser, un peu comme un assistant humain, mais il sera plus efficace pour résoudre des problèmes. Ces systèmes seront sous nos contrôles, ce n’est pas eux qui nous contrôleront. Donc ils amplifieront à terme l’intelligence humaine. L’effet pourrait donc être similaire à ce qu’il s’est passé au siècle des Lumières, avec l’apparition de l’imprimerie et un renouveau de l’humanité.
Mais selon vous, les craintes de la population sont-elles explicables. L’IA est-elle spécifique par rapport à d’autres technologies ?
Bien sûr, ces craintes sont tout à fait compréhensibles. Je pense que les angoisses sont créées par les incertitudes et le manque de contrôle sur ce qui va advenir. Je veux dire par là que les individus se voient comme n’ayant pas le contrôle, ils ont l’impression qu’il y a une mainmise d’un petit groupe de personnes ou d’entreprises, dont les intérêts ne sont pas forcément alignés avec les leurs. La meilleure manière de diminuer l’incertitude dans l’esprit des gens, c’est d’expliquer ce qu’est une IA, comment elle va être déployée. Expliquer par exemple qu’aujourd’hui, l’IA est déjà très utilisée, majoritairement pour trois choses : sur les voitures, pour les systèmes d’évitement d’obstacle et de freinage automatique. Rappelons que ces systèmes sont obligatoires sur toutes les voitures aujourd’hui, et ce sont des IA. Pas des IA génératives, mais elles utilisent des techniques vraiment similaires, tirées de ce que j’ai inventé il y a une trentaine d’années [les algorithmes à réseau de neurones]. Et ces IA sauvent des vies. Le deuxième exemple, c’est pour la médecine, avec l’analyse d’images médicales, qui est déployée à grande échelle, pour détecter les cancers du sein, de la prostate etc. Une autre application pour laquelle Meta est partenaire, avec l’Institut de médecine de New York, consiste à réduire le temps passé dans les IRM, et condenser l’examen au sein d’un tube claustrophobique de 45 minutes à seulement quelques minutes… Sans compter la découverte de nouveaux traitements, de nouvelles procédures, que l’on aura dans l’avenir. Et une des utilisations les plus répandues à l’heure actuelle, c’est pour la modération de contenu sur internet. L’IA nous permet de supprimer le contenu qui enfreint nos politiques. Elle facilite la compréhension et la détection de ces contenus, afin de les supprimer avant que les utilisateurs ne les voient. Les progrès de l’AI ces six dernières années ont eu un énorme effet sur la capacité, notamment chez Meta, à supprimer les discours de haine avant que les gens ne nous le signalent. Sur cet aspect particulier nous sommes passés de 23% des contenus supprimés en 2017 à 95% en 2024.
Et ce sont les progrès en IA qui sont à l’origine de ces améliorations ?
Absolument. Et ce sont ces mêmes progrès phénoménaux qui ont permis l’apparition des systèmes de dialogue comme ChatGPT etc. Ce sont les mêmes techniques. Mais ces peurs sont légitimes.
Quelles sont les plus courantes ?
Il y a celle de voir des IA autonomes capables de dominer le monde. Ces choses là sont totalement irréalistes. D’autres concernent le fait de savoir si un pays ou un groupe malintentionné pourrait avoir un effet sur le processus démocratique, en utilisant l’IA générative pour semer la zizanie. Ou de voir un groupe se servir de l’IA pour concevoir une arme biologique ou chimique. Alors pour ce dernier point, des études très sérieuses montrent qu’un moteur de recherche est bien plus efficace… Et les systèmes d’IA ne sont pas capables d’inventer de nouvelles recettes. Ajoutons que ce n’est pas parce qu’on a la recette qu’on est capable de la réaliser. Pour ce qui est de l’ingérence dans le processus électoral, des protections sont d’ores et déjà mises en place, depuis huit ans, désormais, pour détecter ces techniques. D’autre part, les groupes que constituent les plateformes, commencent à être aguerris sur le sujet. Mais ce qu’il faut comprendre, c’est que l’on n’a pas du tout, à l’heure actuelle, de système intelligent du niveau de l’intelligence humaine. Et même de l’intelligence animale. Nous sommes bluffés car les systèmes auxquels on fait face accumulent énormément de savoir, et sont capables de le régurgiter, souvent à bon escient, mais ils n’ont aucune compréhension du monde équivalente aux systèmes intelligents humains ou animaux. Et même si l’on y parvenait, ils resteront contrôlables. Leurs tâches seront déterminées par des utilisateurs humains.
En matière d’innovation, on dit souvent qu'on surestime ce qu'une technologie peut faire à court terme et que l’on sous-estime ce qu'elle peut faire à long terme. Pour vous, qu'est ce qu'on surestime aujourd’hui, dans les capacités de l'IA à court terme et sous-estime à long-terme ?
C’est une grande question… Il est vrai qu’il y a une vraie hype, quand une technologie émerge. Et une partie est justifiée. Si l’IA ne fait pas de gros progrès au niveau de la recherche fondamentale, rien qu’avec les technologies qui existent aujourd’hui, elle aura un gros impact sur la société, le monde du travail, l’industrie, la capacité des gens à être créatifs… Donc le seul déploiement des technologies actuelles dans des produits accessibles au grand public aura un gros impact. Mais, les capacités d’intelligence des systèmes actuels sont limitées. Ce sont des outils, comme n’importe quels autres outils. Il y a quatre caractéristiques des systèmes intelligents dont sont totalement incapables les modèles de langage que l’on voit aujourd’hui : la capacité à comprendre les règles du monde physique (une IA peut créer des enclumes volantes sans que cela ne lui pose le moindre souci) alors qu’un enfant de 10 mois peut le faire, le fait d’avoir une mémoire persistante (notre capacité à se remémorer les éléments importants du passé et les utiliser à bon escient), la capacité à raisonner (les modèles de langues répondent sans réfléchir, ils n’ont pas de modèle mental d’une situation donnée et ne savent pas résoudre un problème et inventer une solution) enfin, et ça découle de la précédente, c’est la capacité à planifier une séquence d’actions pour obtenir et aboutir à un résultat particulier. Ils peuvent régurgiter des plans appris, mais pas en inventer. Aboutir à ces systèmes demandera de revoir profondément l’architecture des systèmes d’IA. Il faudra d’autres modèles, et cela prendra des années.
Pensez-vous que pour diminuer les craintes, il ne faudrait pas aussi insister dans le discours public sur ce dont n’est pas capable l’IA ?
Oui, ça me semble important de dire cela au public. L’apparition de l’informatique a fait naître les mêmes peurs. Un site internet, pessimistarchive.org, compile d’ailleurs tous les scénarios catastrophes qui ont eu cours dans la presse, lors de l’apparition des nouvelles technologies, sur un ton humoristique. Car ce sont des articles plus vendeurs, mais aussi parce que le public est plus motivé pour apprendre ce qui pourrait le mettre en danger que ce qui se passe bien. C’est une tendance naturelle. Ça me semble donc important d’expliquer ce qui est possible ou non aujourd’hui, ce qui le sera dans le futur. De voir ensemble quel futur on peut construire. Il faut discuter pour organiser la société afin que les choses positives apparaissent et moins les négatives, et c’est le compromis qui est toujours difficile à faire. Prenez les voitures, elles ont permis davantage de liberté individuelle, de développer l’économie, mais elles polluent et beaucoup de personnes meurent encore sur les routes chaque année, donc c’est un compromis qui est fait en société.
Quels conseils vous donneriez à un chef d’entreprise dont les employés craindraient leur remplacement par la machine ?
Dans l’histoire, aucune nouvelle technologie n’a créé de chômage à long terme. Il y aura un glissement des métiers. Certains disparaîtront, d’autres apparaîtront. D’autres seront modifiés. Eh oui, il est très difficile pour les populations d’imaginer quels seront les métiers en vogue dans dix ans. Jamais en 2004 nous n’aurions imaginé qu’un des métiers les plus tendances en 2014 serait le développement d’applications mobiles pour les smartphones. Idem pour les VTC, ou les petits commerces qui se développent et accèdent à leur clientèle via les réseaux sociaux. Il y en a 12 millions dans le monde, et jamais nous n’aurions imaginé ces métiers. Ce que l’on dit, un peu sous forme de boutade, c’est qu’une personne qui n’utilise pas l’IA sera remplacée par une personne qui utilise l’IA.
Donc selon vous, l’acceptation de la société n’est qu’une question de temps, afin de dépasser les peurs ?
Oui. Ce que nous disent les économistes spécialisés dans les effets des technologies sur le marché du travail, c’est que les révolutions technologiques changent les métiers, ou même la nature du lien avec nos métiers, mais augmentent globalement la productivité. Et c’est cela que les gens doivent comprendre et retenir : la révolution technologique augmente la quantité de richesse produite par heure travaillées. Donc la question centrale n’a rien à voir avec la technologie. Elle est fiscale, économique et sociale : savoir comment cette augmentation de la productivité va être distribuée dans la population. Est-ce qu’elle va contribuer à l’augmentation des inégalités de richesse et de revenus ou faire le contraire ? Mais cette question, s’adresse aux politiques, pas aux gens comme moi… C’est là où les systèmes politiques des différents pays seront à même de faire ce qu’il faut pour aller dans le bon sens ou non. Ce que l’on a observé, c’est qu’il faut environ 15 ou 20 ans pour qu’une nouvelle technologie dite générale – c’est-à-dire qui a un impact sur différents pans de la société – ait un effet mesurable sur la productivité. Le facteur limitant étant la capacité d’une population à apprendre à s’en servir. Donc la meilleure chose que puisse faire les gouvernements, c’est d’apprendre aux gens à s’en servir.
Si vous deviez changer quelque chose dans le traitement médiatique de l’IA aujourd’hui, ce serait quoi ?
Je ferais davantage d’éducation, pour expliquer ce que peut faire l’IA, ce qu’elle ne peut pas faire, pour mettre en avant des scénarios positifs, plutôt que négatifs, même si ces derniers sont plus divertissants. Je donnerai davantage une vision positive du futur, pour inspirer les gens à travailler sur ce futur. Quand les moteurs à réactions sont arrivés, il y avait des tas de raisons de craindre que les systèmes explosent, que ça prenne feu… Une telle puissance dans un si petit volume était incroyable. Mais il faut regarder les statistiques, et s’apercevoir que la fiabilité a augmenté. Aujourd’hui, ils nous permettent de voyager partout sur la planète. C’est un peu la même chose avec l’IA. La technologie va progresser, sa fiabilité aussi. C’est vers ce futur désirable qu’il faut tendre.
Et quid de la question du climat ? Microsoft annonçait avoir du retard dans son programme de réduction de son empreinte écologique, du fait même de l’IA. Le réchauffement climatique ne sera-t-il pas un facteur limitant au déploiement de la technologie ?
C’est vrai que les systèmes d’IA, pour tourner – davantage même que pour les entraîner – requièrent une consommation électrique très importante, car ce sont énormément de calculs. Il faut savoir que la puissance de calcul [donc l’impact carbone] est limitée par la donnée économique. Meta, par exemple, dérive quelques dizaines d’euros par utilisateurs et par an, issus du chiffre d’affaires publicitaire, afin de financer un certain niveau de puissance de calculs. C’est comme cela que les choses s’équilibrent. Donc il ne peut pas y avoir de croissance exponentielle de la puissance de calcul dédiée à l’IA, car les revenus sont limités. Donc la question, c’est combien les utilisateurs seront prêts à payer chacun, pour utiliser l’IA. Pour le moment, il y a énormément d’investissements, afin de déployer ces infrastructures, car cela demande du temps et il faut s’y prendre à l’avance. Ce que nous observons est une phase qui permettra de généraliser cela dans les années qui viennent. Mais ce sera limité par la donnée économique.
Donc pour vous, l’impact carbone sera limité du fait même de sa corrélation avec l’économie ?
Pour le moment, il n’y a pas eu de calcul de l’impact de la consommation totale de tous les systèmes d’IA du monde. Mais sa proportion dans les data centers est encore très faible. En outre, tout le parc informatique mondial, la totalité des data centers du monde entier, ne représente que 2 à 3% de la consommation électrique mondiale. Et une grande partie est produite par des énergies renouvelables. Les opérations de Meta sont neutres au niveau carbone, du point de vue électrique. Et nous fonctionnons par crédit « renouvelables » lorsqu’il n’y a ni soleil ni vent… Je crois que pour Google également. Mais c’est moins le cas de Microsoft – pour qui c’est plus compliqué, avec leurs services Cloud. Notons que cette limitation de l’impact carbone par la puissance de calcul pousse justement les entreprises à être plus efficaces, au niveau logiciel et matériel, à faire tourner des algorithmes plus petits ou créer des circuits dédiés à l’IA, plus économes en ressources. Donc l’incitation existe. Pas besoin de faire de loi pour cela…
Pensez-vous que l’image de l’IA que se fait la société à l’heure actuelle est conforme à la réalité des systèmes ?
Non, comme je le disais, les systèmes d’IA à l’heure actuelle sont encore très limités. De même, on parle beaucoup d’IA génératives, mais la plupart des utilisations de l’IA que l’on a à l’heure actuelle ne sont pas génératives. Et les techniques qui sous-tendent l’IA que l’on dit générative existent depuis assez longtemps.
Mais que c’est il passé ces derniers mois alors ?
Ce qui a surpris tout le monde ces derniers mois, avec l’émergence de ChatGPT, c’est l’engouement du public pour ces systèmes. Nous avions produit chez Meta des systèmes très similaires auparavant, que l’on avait rendu disponible principalement pour la communauté scientifique et la recherche, et ils n’avaient pas du tout suscité le même engouement… Et personne n’a bien compris la ferveur qu’il y a eu fin 2022. Mais elle existe, et a créé un effet boule de neige, qui fait que tout le monde s’y est intéressé. Cela a suscité l’intérêt des investisseurs, et a permis l’émergence de tas d’idées, car beaucoup de gens ont commencé à s’y mettre. Mais la technique, en tant que telle, existe depuis longtemps.
Cet engouement du public, qui vous a surpris, était donc prématuré ?
Non, je ne pense pas. Il a surpris tout le monde mais il aurait pu avoir lieu plus tôt. Je pense même que l’industrie aurait pu démarrer un peu avant... Chez Meta, on se disait toujours que si on utilisait beaucoup l’IA, elle restait trop souvent « derrière le rideau ». Les seuls projets qui la mettaient en lumière, c’était pour la traduction ou la génération de sous-titres. Nous n’en parlions quasiment pas pour la modération de contenu. On ne mettait pas en avant les produits pour lesquels l’IA était au cœur.
Mais vous avez toujours eu la même vision de l’IA au sein de Meta ?
Oui notre vision long-terme a toujours été de penser que tout un chacun se promènerait avec des objets intelligents, que l’on porterait ou que l’on mettrait dans sa poche, avec qui l’on pourrait interagir. Des agents intelligents, présents avec nous à chaque instant. C’est un futur tout à fait plausible et nous avons toujours eu cette vision. Déjà en 2014, nous lancions le projet M, une grande expérience qui consistait à mettre à disposition d’un grand nombre de personnes un de ces « agents intelligents ». En réalité, nous avions des humains derrière la machine, qui répondaient. Mais le but de l’expérience était de voir le type de questions que poserait le public à ce type d’agents conversationnels, afin d’en développer un. Nous pensions que l’on aboutirait à un petit nombre de questions très récurrentes, et que les moins fréquentes pourraient être ignorées. Ainsi, le système n’aurait qu’à répondre dans de rares cas qu’il n’a pas la réponse. Mais il s’est trouvé que non : les questions posées par les utilisateurs étaient très diverses et la technologie de l’époque n’était pas du tout à la hauteur pour satisfaire les besoins du public. Donc nous sommes dits qu’elle devait encore faire des progrès pour aider les gens dans leur vie de tous les jours. Seulement aujourd’hui, la technologie existe. C’est ça qui change la donne. Mais notre stratégie long-terme a toujours été la même.
Quels sont selon vous les mésusages de la technologie qui pourrait porter préjudice à la société ?
Selon moi, si règlementation il doit y avoir, ce sont des règlementations sur les usages. Et cela dépend des domaines. Vous prenez l’aide à la conduite, pour les voitures, des règlementations et des systèmes de tests sont déjà en place, idem pour la médecine. Donc il n’y a pas besoin de règlementation supplémentaire. Donc si législation il doit y avoir, ce doit être pour des segments de marché qui n’existent pas encore. Pour ces domaines, c’est bien qu’il y ait des personnes indépendantes qui réfléchissent à l’impact de ces produits sur la société. Mais la question la plus importante, selon moi, c’est de savoir s’il faut réglementer la recherche et le développement. Personnellement, j’observe un certain glissement de la part d’instances gouvernementales sur ce sujet. Si on pense qu’un groupe peut concevoir un système intelligent, intrinsèquement dangereux, alors même que le système n’est pas déployé dans un produit, alors oui, il faudrait réglementer la R&D. Mais pour moi, ce genre de scénario relève d’un fantasme digne de la science-fiction, cette vision ou nécessairement un système intelligent et puissant va vouloir par défaut ou par erreur, dominer l’humanité, n’existe pas. Il y a eu des campagnes de « brainwashing » de la part de certains, pour pousser les gouvernements à réglementer les modèles « frontiers » [modèle d’avant-garde], car ils seraient intrinsèquement dangereux, même si non déployés dans des produits. Cela revient pour moi à tuer le progrès dans l’œuf. Et c’est assimilable à l’attitude de l’empire ottoman vis-à-vis de l’imprimerie. Réglementer la R&D risque de nous amener à un « retard accéléré », car cela limite la capacité d’avoir une foire académique, ou celle des entreprises à distribuer des modèles Open Source. C’est-à-dire d’échanger autour des modèles, de les faire tourner où l’on veut et pouvoir les spécialiser pour des utilisations particulières. Or, selon moi la disponibilité de modèles Open Source est une absolue nécessitée. Pas seulement pour l’industrie de l’IA, mais aussi pour la souveraineté des Etats, et la diversité culturelle ou linguistique. Si dans l’avenir, toutes nos interactions numériques se font via des agents intelligents, on ne peut pas se permettre qu’ils soient entraînés sur de l’anglais et développés sur la cote Ouest des Etats-Unis, par une poignée de deux ou trois entreprises. Donc il faut donner la capacité à des industries locales, où qu’elles soient, mais en particulier dans les pays en voie de développement, avec une grande diversité culturelle, de bâtir des systèmes d’IA qui comprennent leurs langues, leurs cultures, valeurs et centres d’intérêt. Et pour cela il faut des modèles Open Source. Car développer des modèles « frontiers » demande beaucoup d’argent, et seules quelques entreprises en ont la capacité. Meta s’est placée résolument dans le camp de la distribution des modèles Open Source. Nous avons formé une alliance avec IBM sur le sujet. Mais il y a eu beaucoup de pressions de la part d’entreprises et de groupements, inquiets des risques existentiels, qui ont réalisé beaucoup de lobbying afin que les règlementations empêchent l’Open Source.
Mais il existe différents degrés d’Open Source… Entre les données, les métadonnées, les algorithmes etc. Pour quel niveau d’ouverture militez-vous et lequel est actuellement en place chez Meta ?
Oui, il existe tout un spectre d’ouverture. Et il est vrai que « Open Source », ne signifie pas grand-chose dans ce contexte. Vous avez le code, d’une part, qui permet de faire tourner le modèle. Ce code est relativement simple, en vérité. Et vous avez les poids [les paramètres], qui déterminent la nature du système. Ce sont les résultats de l’entraînement, et ils font que le système est intelligent. Si le code est disponible, mais sans les poids, ce n’est pas très utile… Ce fichier de poids, lui, chez Meta est utilisable par tous, et y compris commercialement, mais avec des limites, pour des raisons de protection légale. Nous devons limiter son utilisation pour éviter que des gens ne s’en servent afin de faire du mal à d’autres personnes par exemple. Ensuite vous avez le partage du code qui sert à l’entraînement du modèle. Pour ce code, chez Meta, certaines parties, seulement sont disponibles. Ce sont celles qui servent à l’ajuster, ou à l’entraîner sur un ensemble de données précis. Rendre publique la totalité du code d’entraînement ne serait pas très utile, car il faudrait de toute manière des dizaines de milliers de GPU (Graphic Processing Unit) [des puces informatiques] pour le faire tourner. Et seules quatre entreprises au monde peuvent le faire. Ensuite, vous avez les données qui ont été utilisées pour l’entraînement. Les données de base sont des données publiques. Mais le paysage légal dans le monde est en mouvance, et cette raison fait qu'il est difficile de dire quelles données on utilise. Il faut que l’application de la loi, notamment sur le copyright, se stabilise sur le sujet. Nous avons eu exactement la même question au départ d’internet, où pour diffuser une page web, il fallait en faire la copie sur des serveurs intermédiaires. Faire une copie d’un contenu protégé par défaut, c’était une infraction au droit d’auteur. Il a fallu faire un trou dans la législation pour encadrer cela. Cela a donné lieu à de grandes batailles juridiques, et nous sommes un peu dans le même cas actuellement.
Mais donc ce niveau de transparence, selon vous, suffirait à tempérer les mésusages des IA ?
Il y a encore une phase, dont je n’ai pas parlé, qui est la phase d’ajustement, et qui permet au système de répondre de manière fiable au questions fréquemment posées par le gens. Et cette phase coûte extrêmement cher, car ce sont des milliers de personnes embauchées pour jouer avec le système, poser des questions, voir les réponses et les noter, proposer de nouvelles réponses… Ou encore faire en sorte que le système ne déblatère pas des insanités, des appels à la violence, ou des contenus discriminatoires. Cette phase d’évaluation et de limitation est très importante. Mais désormais, nous proposons à des entreprises, des associations ou même des Etat, d’ajuster le modèle selon leurs besoins. En Inde, par exemple, nous avons un projet d’ajustement du model Llama [le modèle d’IA de Meta], afin qu’il puisse parler et comprendre les 22 langues officielles du pays – qui ne sont qu’une petite partie des centaines de langues et dialectes parlés dans le pays. Autre exemple, avec Moustapha Cissé, un ancien de Google qui a monté Kera, au Sénégal, une start-up qui vise à créer un agent conversationnel pour donner accès à la population à des informations médicales en dehors des grandes villes, où l’accès à la médecine est compliqué. Nous adaptons le modèle au besoin du pays, de ses dialectes et de sa culture. Cette adaptation est rendue possible grâce au modèle Open Source.
Retrouvez également notre interview de Laurent Solly, vice-président Europe du Sud de Meta
Qui est Yann Le Cun ?
Yann Le Cun a intégré le laboratoire d’intelligence artificielle de Meta en 2013. Il est aujourd’hui directeur de la recherche scientifique en IA pour le groupe. Reconnus dans le monde entier, ses travaux sur les algorithmes à réseaux de neurones, dans les années 2000, ont permis à l’apprentissage profond (deep learning) de passer un cap majeur, et ont permis l’émergence des systèmes d’IA actuels.