📍82 Boulevard Haussmann, 75008 Paris

Article 55 IA ACT : Obligations des fournisseurs de modèles d’IA à usage général présentant un risque systémique

Table des matières

Explication de l’article

L’article 55 de l’AI Act ajoute des obligations spécifiques pour les modèles dits à risque systémique (ceux qui peuvent affecter des secteurs entiers, comme l’éducation, la santé ou la sécurité). Ces modèles doivent faire l’objet d’évaluations plus strictes, gérer et réduire les risques à grande échelle, et assurer une cybersécurité renforcée.

Notions clés à comprendre

Evaluation standardisée : les modèles doivent être testés avec des protocoles et outils reconnus pour identifier les risques. 

Gestion des risques : identifier les risques à l’échelle de l’Union et prévoir des mesures pour les atténuer. 

Rapport d’incidents : notifier rapidement les incidents sérieux aux autorités compétentes. 

Cybersécurité : garantir un niveau de sécurité adéquat pour le modèle et son infrastructure. 

Conformité via codes/un normes : possibilité d’utiliser des codes de bonnes pratiques ou normes harmonisées pour démontrer la conformité.

Exemple pratique

Une entreprise déploie un modèle d’IA qui influence des décisions automatisées de placement scolaire dans plusieurs pays européens. Ce modèle est considéré à risque systémique : il doit être soumis à des tests poussés selon des standards reconnus, et toute erreur significative ou dysfonctionnement doit être signalé immédiatement aux autorités européennes.

Votre modèle présente un risque systémique : êtes-vous prêt à gérer les risques et incidents ?
L'article 55 indique que les fournisseurs doivent évaluer et atténuer les risques systémiques, documenter les tests et incidents graves, et garantir la cybersécurité du modèle et de son infrastructure. L’utilisation de codes de bonne pratique et normes harmonisées peut sécuriser la conformité.

Texte original de l’IA Act

Article 55 – Obligations incombant aux fournisseurs de modèles d’IA à usage général présentant un risque systémique

1.   Outre les obligations énumérées aux articles 53 et 54, les fournisseurs de modèles d’IA à usage général présentant un risque systémique:

a)

effectuent une évaluation des modèles sur la base de protocoles et d’outils normalisés reflétant l’état de la technique, y compris en réalisant et en documentant des essais contradictoires des modèles en vue d’identifier et d’atténuer les risques systémiques;

b)

évaluent et atténuent les risques systémiques éventuels au niveau de l’Union, y compris leurs origines, qui peuvent découler du développement, de la mise sur le marché ou de l’utilisation de modèles d’IA à usage général présentant un risque systémique;

c)

suivent, documentent et communiquent sans retard injustifié au Bureau de l’IA et, le cas échéant, aux autorités nationales compétentes les informations pertinentes concernant les incidents graves ainsi que les éventuelles mesures correctives pour y remédier;

d)

garantissent un niveau approprié de protection en matière de cybersécurité pour le modèle d’IA à usage général présentant un risque systémique et l’infrastructure physique du modèle.

2.   Les fournisseurs de modèles d’IA à usage général présentant un risque systémique peuvent s’appuyer sur des codes de bonne pratique au sens de l’article 56 pour démontrer qu’ils respectent les obligations énoncées au paragraphe 1 du présent article, jusqu’à la publication d’une norme harmonisée. Le respect des normes européennes harmonisées confère au fournisseur une présomption de conformité dans la mesure où lesdites normes couvrent ces obligations. Les fournisseurs de modèles d’IA à usage général présentant un risque systémique qui n’adhèrent pas à un code de bonnes pratiques approuvé ou ne respectent pas une norme européenne harmonisée démontrent qu’ils disposent d’autres moyens appropriés de mise en conformité et les soumettent à l’appréciation de la Commission.

3.   Toute information ou documentation obtenue en vertu du présent article, y compris les secrets d’affaires, est traitée conformément aux obligations de confidentialité énoncées à l’article 78.

L’IA ACT peut sembler complexe. L’équipe de DPO externe de Mon Expert RGPD vous accompagne  pour évaluer, documenter et sécuriser vos modèles à risque systémique.

Menu IA Act

Besoin d’aide pour cet article ?

Comprendre les obligations liées à cet article et éviter les erreurs.

🔓 Échange confidentiel – Sans engagement

Newsletter S'inscrire

Recevez nos derniers articles et actualités directement dans votre boîte de réception !

Votre e-mail est en sécurité 🔒. En entrant votre e-mail, vous acceptez de recevoir nos newsletter et des informations sur nos services. Vos données sont traitées conformément à notre Politique de Confidentialité et vous pouvez vous désinscrire à tout moment.