Article 15 IA ACT : Précision, robustesse et cybersécurité
Table des matières
Explication de l’article
L’Article 15 de l‘IA Act impose aux systèmes d’IA à haut risque de garantir trois exigences techniques tout au long de leur cycle de vie :
Précision (accuracy) : Le système doit produire des résultats corrects et fiables, et ses décisions ou recommandations doivent correspondre aux résultats attendus dans le contexte prévu.
Robustesse (robustness) : Le système doit fonctionner correctement même en présence de variations inattendues dans les données d’entrée ou dans son environnement. Cela permet d’éviter des erreurs ou des comportements imprévisibles.
Cybersécurité (security) : Le système doit être protégé contre les attaques malveillantes ou les intrusions qui pourraient compromettre son fonctionnement, la sécurité des données ou la protection des utilisateurs.
L’Article 15 souligne que ces exigences ne concernent pas seulement la phase de développement, mais tout le cycle de vie du système, incluant la mise en production, la maintenance et les mises à jour. La surveillance continue est donc obligatoire pour détecter et corriger tout écart par rapport à ces trois dimensions.
En pratique, cela signifie que les fournisseurs doivent mettre en place des tests réguliers, des audits techniques et des mesures de cybersécurité pour garantir que leur IA reste conforme aux exigences même après sa mise sur le marché.
Notions clés à comprendre
Précision (accuracy) : Le système doit produire des résultats corrects et fiables, et ses décisions ou recommandations doivent correspondre aux résultats attendus dans le contexte prévu.
Robustesse (robustness) : Le système doit fonctionner correctement même en présence de variations inattendues dans les données d’entrée ou dans son environnement. Cela permet d’éviter des erreurs ou des comportements imprévisibles.
Cybersécurité (security) : Le système doit être protégé contre les attaques malveillantes ou les intrusions qui pourraient compromettre son fonctionnement, la sécurité des données ou la protection des utilisateurs.Exemple pratique
Un système d’IA pour radiologie doit atteindre selon l’Article 15 :
Précision requise :
Sensibilité (détection des cancers) : 97% minimum
Spécificité (éviter faux positifs) : 95% minimum
Accuracy globale : 96%
Robustesse :
Tester sur images de différentes qualités
Tester sur femmes de différents âges, morphologies, origines
Tester sur différents modèles de mammographes
Cybersécurité :
Protéger les données d’entraînement : pas d’accès public aux images médicales
Défendre contre les attaques adversariales : une image perturbée de 1% ne doit pas être mal classifiée.
Texte original de l’IA Act
Article 15 – Exactitude, robustesse et cybersécurité
1. La conception et le développement des systèmes d’IA à haut risque sont tels qu’ils leur permettent d’atteindre un niveau approprié d’exactitude, de robustesse et de cybersécurité, et de fonctionner de façon constante à cet égard tout au long de leur cycle de vie.
2. Pour examiner les aspects techniques de la manière de mesurer les niveaux appropriés d’exactitude et de robustesse visés au paragraphe 1 et tout autre indicateur de performance pertinent, la Commission, en coopération avec les parties prenantes et organisations concernées, telles que les autorités de métrologie et d’étalonnage des performances, encourage, le cas échéant, l’élaboration de critères de référence et de méthodes de mesure.
3. Les niveaux d’exactitude et les indicateurs de l’exactitude des systèmes d’IA à haut risque sont indiqués dans la notice d’utilisation jointe.
4. Les systèmes d’IA à haut risque font preuve d’autant de résilience que possible en cas d’erreurs, de défaillances ou d’incohérences pouvant survenir au sein des systèmes eux-mêmes ou de l’environnement dans lequel ils fonctionnent, notamment en raison de leur interaction avec des personnes physiques ou d’autres systèmes. Des mesures techniques et organisationnelles sont prises à cet égard.
Des solutions techniques redondantes, telles que des plans de sauvegarde ou des mesures de sécurité après défaillance, peuvent permettre de garantir la robustesse des systèmes d’IA à haut risque.
Les systèmes d’IA à haut risque qui continuent leur apprentissage après leur mise sur le marché ou leur mise en service sont développés de manière à éliminer ou à réduire dans la mesure du possible le risque que des sorties éventuellement biaisées n’influencent les entrées pour les opérations futures (boucles de rétroaction) et à veiller à ce que ces boucles de rétroaction fassent l’objet d’un traitement adéquat au moyen de mesures d’atténuation appropriées.
5. Les systèmes d’IA à haut risque résistent aux tentatives de tiers non autorisés visant à modifier leur utilisation, leurs sorties ou leur performance en exploitant les vulnérabilités du système.
Les solutions techniques visant à garantir la cybersécurité des systèmes d’IA à haut risque sont adaptées aux circonstances pertinentes et aux risques.
Les solutions techniques destinées à remédier aux vulnérabilités spécifiques à l’IA comprennent, au besoin, des mesures ayant pour but de prévenir, de détecter, de contrer, de résoudre et de maîtriser les attaques visant à manipuler le jeu de données d’entraînement (empoisonnement des données) ou les composants préentraînés utilisés en entraînement (empoisonnement de modèle), les entrées destinées à induire le modèle d’IA en erreur (exemples contradictoires ou invasion de modèle), les attaques visant la confidentialité ou les défauts du modèle.
Perspective avec d’autres textes
Perspective Européenne
Directive générale sur la sécurité des produits (2001/95/CE) : Établit des obligations de sécurité qui servent de référence pour les systèmes d’IA.
Directive sur la sécurité des machines (2006/42/CE) : Les principes de robustesse et tests de performance sont repris pour les systèmes d’IA à haut risque.
Normes ISO/IEC 23894 : Fournissent des bonnes pratiques pour la gestion des risques et la sécurité des systèmes d’IA.
Directive Sécurité des réseaux et de l’information (NIS2)
Cette directive impose des standards de cybersécurité que l’Article 15 applique aux systèmes d’IA critiques.
Perspective Française
ANSSI – Recommandations de sécurité : L’Agence Nationale de la Sécurité des Systèmes d’Information française fournit des recommandations de cybersécurité applicables à l’Article 15.
CNIL – Recommandations sur IA et cybersécurité : La CNIL souligne l’importance de la protection des données personnelles et de la robustesse des systèmes d’IA manipulant des informations sensibles.
Assurer la fiabilité et la sécurité de votre IA à haut risque demande rigueur et expertise. L’équipe de DPO externe de Mon Expert RGPD vous accompagne.
Menu IA Act
Besoin d’aide pour cet article ?
Comprendre les obligations liées à cet article et éviter les erreurs.
🔓 Échange confidentiel – Sans engagement