La ‘Red team’ d’OpenAI est une équipe chargée de tester les limites et les failles de sécurité des systèmes d’IA, en agissant comme un adversaire potentiel.
Le rôle de cette équipe est de découvrir des vulnérabilités avant qu’elles ne soient exploitées de manière malveillante, garantissant ainsi que le système est robuste et sécurisé.
Cela permet à OpenAI de préparer et d’améliorer ses produits pour faire face aux défis réels, tels que l’éthique et la sécurité, en s’assurant qu’ils sont non seulement fonctionnels mais aussi résistants contre les utilisations malveillantes.
La ‘Red team’ se compose d’experts fiables et expérimentés issus de divers horizons, y compris dans les domaines de l’éducation, de l’économie, du droit, des langues, des sciences politiques et de la psychologie.
Ces membres ne sont pas impliqués dans chaque nouveau modèle ou produit, mais sont sollicités en fonction de leur expertise à diverses étapes du cycle de vie du développement des modèles et des produits d’IA.
La ‘Red team’ est déjà à pied d’œuvre concernant ‘Sora’ d’OpenAI, une IA générative pour la vidéo dont l’annonce avait fait grand bruit.
Elle est certainement aussi impliquée en prévision de la sortie prochaine de ChatGPT-5…