Dans le cadre de ses travaux menés sur les risques liés aux utilisations néfastes de l’IA, OpenAI a annoncé avoir créé une équipe dédiée aux risques « catastrophiques » des modèles les plus évolués qui pourraient sortir dans l’avenir. Baptisée « Preparedness », cette équipe est dirigée par Aleksander Madry, et devra plancher sur des sujets tels que la persuasion des individus, la cybersécurité, les menaces biologiques ou nucléaires, et les réplications et adaptations autonomes des intelligences artificielles. Les scénarios les plus noirs…