Article 55 IA ACT : Obligations des fournisseurs de modèles d’IA à usage général présentant un risque systémique
Table des matières
Explication de l’article
L’article 55 de l’AI Act ajoute des obligations spécifiques pour les modèles dits à risque systémique (ceux qui peuvent affecter des secteurs entiers, comme l’éducation, la santé ou la sécurité). Ces modèles doivent faire l’objet d’évaluations plus strictes, gérer et réduire les risques à grande échelle, et assurer une cybersécurité renforcée.
Notions clés à comprendre
Evaluation standardisée : les modèles doivent être testés avec des protocoles et outils reconnus pour identifier les risques.
Gestion des risques : identifier les risques à l’échelle de l’Union et prévoir des mesures pour les atténuer.
Rapport d’incidents : notifier rapidement les incidents sérieux aux autorités compétentes.
Cybersécurité : garantir un niveau de sécurité adéquat pour le modèle et son infrastructure.
Conformité via codes/un normes : possibilité d’utiliser des codes de bonnes pratiques ou normes harmonisées pour démontrer la conformité.
Exemple pratique
Une entreprise déploie un modèle d’IA qui influence des décisions automatisées de placement scolaire dans plusieurs pays européens. Ce modèle est considéré à risque systémique : il doit être soumis à des tests poussés selon des standards reconnus, et toute erreur significative ou dysfonctionnement doit être signalé immédiatement aux autorités européennes.
Texte original de l’IA Act
Article 55 – Obligations incombant aux fournisseurs de modèles d’IA à usage général présentant un risque systémique
1. Outre les obligations énumérées aux articles 53 et 54, les fournisseurs de modèles d’IA à usage général présentant un risque systémique:
a) | effectuent une évaluation des modèles sur la base de protocoles et d’outils normalisés reflétant l’état de la technique, y compris en réalisant et en documentant des essais contradictoires des modèles en vue d’identifier et d’atténuer les risques systémiques; |
b) | évaluent et atténuent les risques systémiques éventuels au niveau de l’Union, y compris leurs origines, qui peuvent découler du développement, de la mise sur le marché ou de l’utilisation de modèles d’IA à usage général présentant un risque systémique; |
c) | suivent, documentent et communiquent sans retard injustifié au Bureau de l’IA et, le cas échéant, aux autorités nationales compétentes les informations pertinentes concernant les incidents graves ainsi que les éventuelles mesures correctives pour y remédier; |
d) | garantissent un niveau approprié de protection en matière de cybersécurité pour le modèle d’IA à usage général présentant un risque systémique et l’infrastructure physique du modèle. |
2. Les fournisseurs de modèles d’IA à usage général présentant un risque systémique peuvent s’appuyer sur des codes de bonne pratique au sens de l’article 56 pour démontrer qu’ils respectent les obligations énoncées au paragraphe 1 du présent article, jusqu’à la publication d’une norme harmonisée. Le respect des normes européennes harmonisées confère au fournisseur une présomption de conformité dans la mesure où lesdites normes couvrent ces obligations. Les fournisseurs de modèles d’IA à usage général présentant un risque systémique qui n’adhèrent pas à un code de bonnes pratiques approuvé ou ne respectent pas une norme européenne harmonisée démontrent qu’ils disposent d’autres moyens appropriés de mise en conformité et les soumettent à l’appréciation de la Commission.
3. Toute information ou documentation obtenue en vertu du présent article, y compris les secrets d’affaires, est traitée conformément aux obligations de confidentialité énoncées à l’article 78.
L’IA ACT peut sembler complexe. L’équipe de DPO externe de Mon Expert RGPD vous accompagne pour évaluer, documenter et sécuriser vos modèles à risque systémique.
Menu IA Act
Besoin d’aide pour cet article ?
Comprendre les obligations liées à cet article et éviter les erreurs.
🔓 Échange confidentiel – Sans engagement