Article 6 IA ACT : Règles classification des IA à haut risque
Table des matières
Explication de l’article
L’article 6 de l‘IA ACT définit les critères pour savoir si un système d’IA doit être considéré comme « haut risque ». Cette classification est essentielle, car elle détermine le niveau d’obligations légales et de contrôle que le système doit respecter.
Principes clés :
1. Deux conditions principales pour être considéré à haut risque :
- Composant de sécurité dans un produit réglementé : si le système d’IA est intégré dans un produit soumis à une législation harmonisée de l’UE (ex. équipements médicaux, machines industrielles) listée en Annexe I, il est automatiquement considéré comme haut risque.
- Système listé dans l’Annexe III de l’IA Act : certains types de systèmes sont explicitement identifiés comme à haut risque par le Règlement.
2. Mécanisme de dérogation :
Même si un système figure en Annexe III, il peut être exempté du statut de haut risque si :
- Il ne présente pas de risque significatif pour les personnes,
- Il remplit certaines conditions limitatives, par exemple :
- Tâche très spécifique ou procédurale,
- Support ou amélioration d’une activité humaine sans prendre de décision autonome,
- Détection de motifs ou d’informations sans influence directe sur une décision importante,
- Tâche préparatoire pour d’autres systèmes ou activités.
La classification à haut risque détermine les exigences strictes de conformité, comme la documentation technique, l’évaluation des risques, la surveillance et la transparence.
Sans cette classification claire, un système pourrait être mal évalué, entraînant des risques pour la sécurité, les droits fondamentaux ou les utilisateurs.
L’article 6 fournit un cadre clair pour identifier les systèmes d’IA à haut risque, tout en incluant des exceptions pour les systèmes qui sont techniquement listés mais qui n’ont pas d’impact significatif sur la sécurité ou les droits des personnes. C’est une étape clé pour protéger les citoyens tout en permettant l’innovation.
Notions clés à comprendre
Système d’IA à haut risque : Système dont l’utilisation peut avoir un impact significatif sur la sécurité, la santé ou les droits fondamentaux, et qui est donc soumis à des obligations strictes de conformité.
Composant de sécurité : Partie d’un produit dont la défaillance ou le mauvais fonctionnement pourrait compromettre la sécurité des personnes, et qui est intégré dans un produit soumis à une législation harmonisée de l’UE (Annexe I).
Annexe I : Liste des produits régulés par l’UE (ex. équipements médicaux, machines industrielles) dans lesquels un composant d’IA peut être considéré automatiquement comme haut risque.
Annexe III : Liste des catégories de systèmes d’IA considérés comme haut risque, indépendamment du produit dans lequel ils sont utilisés.
Mécanisme de dérogation : Possibilité pour certains systèmes listés en Annexe III d’être exemptés du statut de haut risque si :
- Ils ne posent pas de risque significatif,
- Ils remplissent des conditions limitatives, comme :
• Tâche très spécifique ou procédurale,
• Support d’une activité humaine sans décision autonome,
• Détection d’informations sans influence sur des décisions importantes,
• Tâche préparatoire à d’autres activités.
Évaluation du risque : Processus permettant de déterminer si le système présente un risque significatif pour les personnes, conditionnant sa classification et les obligations légales qui s’appliquent.
Exemple pratique
Une entreprise européenne développe un système d’IA pour le recrutement, capable de :
Analyser les CV et lettres de motivation,
- Évaluer automatiquement les compétences et la personnalité des candidats,
- Classer les candidats selon leur probabilité de réussite et proposer des recommandations aux recruteurs.
Analyse selon l’article 6 :
Les systèmes d’IA qui influencent les décisions d’embauche et d’évaluation des candidats figurent dans la liste des systèmes à haut risque de l’Annexe III. Cette classification s’explique par le risque significatif pour les droits fondamentaux, comme le droit à l’égalité et la non-discrimination.
Une dérogation pourrait s’appliquer si le système :
- Réalise seulement des analyses statistiques générales sur les candidatures,
- Fournit des informations sans influencer la décision finale du recruteur.
Dans ce cas, comme le système propose directement des recommandations sur le choix des candidats, la dérogation ne s’applique pas. Le système est donc classé haut risque.
L’entreprise doit donc respecter toutes les obligations pour les systèmes à haut risque :
- Évaluation et documentation des risques,
- Transparence et information aux candidats,
- Surveillance continue et rapport d’incidents.
Cette classification vise à prévenir la discrimination et protéger les droits fondamentaux des candidats.
Cet exemple montre comment l’article 6 permet de déterminer clairement qu’une IA de recrutement peut être à haut risque, et comment le mécanisme de dérogation fonctionne pour les systèmes qui n’influencent pas directement les décisions.
Texte original de l’IA Act
Article 6 – Règles de classification des systèmes d’IA à haut risque
1. Un système d’IA mis sur le marché ou mis en service, qu’il soit ou non indépendant des produits visés aux points a) et b), est considéré comme étant à haut risque lorsque les deux conditions suivantes sont remplies:
a) le système d’IA est destiné à être utilisé comme composant de sécurité d’un produit couvert par la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, ou le système d’IA constitue lui-même un tel produit;
b) le produit dont le composant de sécurité visé au point a) est le système d’IA, ou le système d’IA lui-même en tant que produit, est soumis à une évaluation de conformité par un tiers en vue de la mise sur le marché ou de la mise en service de ce produit conformément à la législation d’harmonisation de l’Union dont la liste figure à l’annexe I.
2. Outre les systèmes d’IA à haut risque visés au paragraphe 1, les systèmes d’IA visés à l’annexe III sont considérés comme étant à haut risque.
3. Par dérogation au paragraphe 2, un système d’IA visé à l’annexe III n’est pas considéré comme étant à haut risque lorsqu’il ne présente pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n’ayant pas d’incidence significative sur le résultat de la prise de décision.
Le premier alinéa s’applique lorsqu’une des conditions suivantes est remplie:
a) le système d’IA est destiné à accomplir un tâche procédurale étroite;
b) le système d’IA est destiné à améliorer le résultat d’une activité humaine préalablement réalisée;
c) le système d’IA est destiné à détecter les constantes en matière de prise de décision ou les écarts par rapport aux constantes habituelles antérieures et n’est pas destiné à se substituer à l’évaluation humaine préalablement réalisée, ni à influencer celle-ci, sans examen humain approprié; ou
d) le système d’IA est destiné à exécuter une tâche préparatoire en vue d’une évaluation pertinente aux fins des cas d’utilisation visés à l’annexe III.
Nonobstant le premier alinéa, un système d’IA visé à l’annexe III est toujours considéré comme étant à haut risque lorsqu’il effectue un profilage de personnes physiques.
4. Un fournisseur qui considère qu’un système d’IA visé à l’annexe III n’est pas à haut risque documente son évaluation avant que ce système ne soit mis sur le marché ou mis en service. Ce fournisseur est soumis à l’obligation d’enregistrement visée à l’article 49, paragraphe 2. À la demande des autorités nationales compétentes, le fournisseur fournit la documentation de l’évaluation.
5. Après consultation du Comité européen de l’intelligence artificielle (ci-après dénommé «Comité IA»), et au plus tard le 2 février 2026, la Commission fournit des lignes directrices précisant la mise en œuvre pratique du présent article, conformément à l’article 96, assorties d’une liste exhaustive d’exemples pratiques de cas d’utilisation de systèmes d’IA qui sont à haut risque et de cas d’utilisation qui ne le sont pas.
6. La Commission est habilitée à adopter des actes délégués conformément à l’article 97 pour modifier le paragraphe 3, deuxième alinéa, du présent article en ajoutant de nouvelles conditions à celles qui y sont énoncées, ou en les modifiant, lorsqu’il existe des preuves concrètes et fiables de l’existence de systèmes d’IA qui relèvent du champ d’application de l’annexe III, mais qui ne présentent pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques.
7. La Commission adopte des actes délégués conformément à l’article 97 afin de modifier le paragraphe 3, deuxième alinéa, du présent article en supprimant l’une des conditions qui y est établie, lorsqu’il existe des preuves concrètes et fiables attestant que cela est nécessaire pour maintenir le niveau de protection de la santé, de la sécurité et des droits fondamentaux prévu par le présent règlement.
8. Toute modification des conditions établies au paragraphe 3, deuxième alinéa, adoptée conformément aux paragraphe 6 et 7 du présent article ne diminue pas le niveau global de protection de la santé, de la sécurité et des droits fondamentaux prévu par le présent règlement et veille à la cohérence avec les actes délégués adoptés conformément à l’article 7, paragraphe 1, et tient compte des évolutions du marché et des technologies.
Perspectives avec d’autres textes
Perspectives européennes
Directives de sécurité des produits (Annexe I)
L’article 6 s’appuie sur les cadres de sécurité existants en Europe, comme :
• Directive Machines (2006/42/CE)
• Directive Appareil Médical (93/42/CEE)
L’article 6 étend ces exigences aux systèmes d’IA, assurant que les systèmes à haut risque respectent les critères de sécurité déjà établis.
Lignes directrices, recommandations
Guidelines de la Commission européenne – Classification des IA à haut risque
Draft Guidelines on High-Risk AI Classification (2025) :
- Comment appliquer les critères de « risque significatif »
- Exemples d’exemptions selon l’article 6(3)
- Procédures de documentation et révision des évaluations
Service d’aide à la conformité – AI Act Service Desk
Outil interactif pour déterminer si un système d’IA est à haut risque et le niveau de conformité applicable.
Perspectives françaises
Code de la consommation
L’article 6 s’aligne avec les obligations françaises d’information et de conformité des produits.
Droit du travail et de l’égalité
Pour les systèmes d’IA utilisés dans le recrutement, l’article 6 prend en compte :
- L’égalité de traitement
- La non-discrimination
La CNIL collabore avec le Ministère du Travail pour clarifier l’application dans le contexte des systèmes de GRH.
CNIL – Orientations et outils pratiques
- Lignes directrices sur la classification des systèmes d’IA selon l’article 6
- Matrice de classification française pour aider les entreprises à déterminer rapidement le niveau de risque
- Exemples pratiques pour le secteur public, le secteur financier et les ressources humaines
L’IA ACT peut sembler complexe. L’équipe de DPO externe de Mon Expert RGPD vous accompagne.
Menu IA Act
Besoin d’aide pour cet article ?
Comprendre les obligations liées à cet article et éviter les erreurs.
🔓 Échange confidentiel – Sans engagement