Une longue enquête publiée dans Time, révèle la face sombre de l’outil d’IA sémantique au succès explosif, ChatGPT. Les équipes d’OpenAI ont fait appel à une société pour sous-traiter une partie de l’apprentissage de l’outil, afin de l’aider à parler « gentiment » aux utilisateurs.
Cette société, basée au Kenya, employait des personnes à étiqueter des textes ou des extraits de textes issus du web afin d’aider l’IA à reconnaître un contenu violent. Ces extraits, parfois extrêmement violents, ont des répercussions importantes sur la santé mentale de leur lecteur, surtout lorsqu’ils sont lus en grand nombre, et pour… deux dollars de l’heure. Cette enquête lève le voile de la sous-traitance à bas coûts, et dans des pays pauvres, des besognes les plus destructrices, même dans la constitution d’un produit moderne comme IA. Et des impacts cachés.