L'intelligence artificielle de confiance est un enjeu clé pour le déploiement responsable des technologies basées sur l'IA. Cette conférence explore des approches hybrides combinant l'apprentissage par renforcement, les systèmes multi-agents et l'optimisation sous incertitude pour concevoir des IA fiables, frugales et robustes. Nous aborderons notamment la réduction des ressources nécessaires aux grands modèles de langage (LLMs) afin d'améliorer leur efficacité et leur empreinte énergétique, ainsi que l'analyse des processus de mémorisation des données dans ces modèles pour mieux comprendre leur comportement et protéger les données sensibles.
En croisant théorie et applications, nous présenterons également comment nos résultats de recherche sont intégrés dans nos enseignements au sein de nos masters, formant ainsi les futurs développeurs d’IA à des pratiques plus responsables, transparentes et éthiques. Cette session mettra en lumière les avancées récentes et les perspectives pour une IA plus explicable et alignée avec les enjeux sociétaux
Ces aspects sont cruciaux pour intégrer l'IA de manière durable et éthique dans la transformation numérique des entreprises.