MIEL : Fuite de données, compromission des applications: Sécuriser l'IA Générative "by design" Les risques que font courir l'adoption de l'IA Gen nécessitent la mise en place de nouveaux contrôles et d'une vraie gouvernance
Sep 26, 2024 | 10:10 AM - 10:15 AM
Sep 26, 2024 | 10:10 AM - 10:15 AM
L'IA générative et les LLMs (Large Language Models) révolutionnent toute l'industrie. 96% des entreprises prévoient d'utiliser l'IA Gen dans les 12 prochains mois, et plus de 50% des employés se servent de l'IA générative sans autorisation de l'entreprise. Par ailleurs des centaines de modèles servant à concevoir des applis sont déjà corrompus pour servir à des cyberattaques. L'adoption très rapide de l'IA Gen fait don courir des risques évidents et énormes quant à l'intégrité et la confidentialité des données de l'entreprise d'un côté et quant à l'exposition aux attaques de l'autre. Comment éviter de commettre les erreurs précédentes en sécurisant une technologie après son déploiement ? Quels contrôles et quelle gouvernance peuvent être mis en place ? La sécurisation à la source de l'usage de l'IA et du développement des applications s'impose d'elle-même. Ce nouveau combat est le cheval de bataille des éditeurs majeurs de la cybersécurité avec en leader : Palo Alto Networks.