Partie 1 : La culture du risque liée à l’IA
Introduction aux enjeux des risques liés à l’IA :
- Identification des risques spécifiques aux systèmes d’IA (biais, sécurité, transparence, explicabilité).
- Principes du cadre ISO 23894 : évaluation des impacts potentiels sur la santé, les droits fondamentaux et la sécurité.
- Études de cas : Exemples d’incidents liés à des défaillances ou biais de systèmes d’IA.
Promouvoir une utilisation responsable de l’IA :
- Pratiques éthiques et responsables : Comprendre les principes clés du IA Act (transparence, non-discrimination, respect des droits fondamentaux).
- Encourager l’action humaine et le contrôle humain (selon les principes du règlement IA Act).
Intégration des pratiques de gestion des risques dans les organisations :
- Approches pour intégrer la gestion des risques au quotidien selon l'ISO 23894.
- Méthodes de concertation et communication dans les équipes pour une meilleure culture du risque.
Partie 2 : Conformité et gouvernance règlementaire
Comprendre et appliquer les exigences réglementaires et normatives :
- IA Act : Obligations pour les systèmes d’IA à haut risque, telles que la documentation technique, la gestion des données et les contrôles de conformité.
- Normes ISO 23894 : Approches pour la mise en place d’un cadre organisationnel de gestion des risques, y compris le leadership, la définition des rôles et la répartition des responsabilités.
Audits et suivi des systèmes d’IA :
- Réalisation d’audits réguliers pour évaluer la conformité avec le cadre ISO 23894 et les exigences du IA Act.
- Surveillance continue des risques émergents (approches et outils mentionnés dans l’ISO).