📍82 Boulevard Haussmann, 75008 Paris

Article 14 IA ACT : Surveillance humaine

Table des matières

Explication de l’article

L’Article 14 de l‘IA Act impose aux systèmes d’IA à haut risque d’être conçus et développés de manière à permettre une surveillance humaine effective pendant leur utilisation. Cet article reconnaît que malgré tous les contrôles techniques, les risques demeurent tant que les humains ne supervisent pas le système. L’Article 14 va au-delà des simples avertissements ou de la possibilité théorique d’intervention : il exige que les systèmes soient conçus pour permettre à des humains de comprendre le système, de le surveiller, de détecter des anomalies, et d’intervenir si nécessaire.

L’Article 14 reflète une vision ou l’humain reste responsable des décisions finales dans les domaines importants, et l’IA doit être structurée pour soutenir, pas pour remplacer, ce rôle humain.

L’objectif est de s’assurer que, même si le système fonctionne de manière autonome, l’humain conserve le contrôle final, particulièrement dans les décisions ayant un impact significatif sur les individus ou la société.

Notions clés à comprendre

Surveillance humaine effective : possibilité réelle et opérationnelle pour un humain de contrôler, comprendre et intervenir sur le système.

Intervention humaine : capacité d’un humain à intervenir pour corriger, stopper ou ajuster le fonctionnement d’un système lorsque nécessaire.

Anomalie / comportement inattendu : tout résultat ou action du système qui diverge de ce qui est prévu ou qui pose un risque.

Responsabilité finale humaine : principe selon lequel les décisions importantes doivent rester sous contrôle humain, même si l’IA fournit des recommandations ou automatise certaines tâches.

Exemple pratique

Un hôpital français utilise l’IA pour détecter les cancers. L’Article 14 impose que :

Chaque résultat d’IA doit être examiné par un radiologue compétent AVANT toute action clinique.

L’IA suggère où elle a détecté une suspicion, fournit score de confiance, le radiologue peut ainsi accepter, refuser, ou demander d’autres imageries

Mesures techniques :

  • Interface qui surbrille les zones de suspicion identifiées par l’IA
  • Rapport détaillé : score de confiance, probabilité de bénignité vs malignité
  • Historique du patient : résultats antérieurs, progression
  • Alerte automatique si score de confiance très bas : « Considérez révision supplémentaire »
  • Capacité technique : Radiologue peut demander « Pourquoi ce résultat ? » -> explications fournies

Capacités de l’humain superviseur :

  • Comprendre : Spécialiste en radiologie avec formation appropriée
  • Rester vigilant : Avertissements si résultat anormal 
  • Détecter anomalies : Si IA fonctionne différemment que d’habitude
  • Refuser : « Je pense que le diagnostic est faux, réévaluer »
Vous ne savez pas dans quels cas l’humain doit intervenir sur votre IA à haut risque ?
L’article 14 garantit un contrôle humain effectif, permettant l’intervention, la suspension ou la correction des résultats.

Texte original de l’IA Act

Article 14 – Contrôle humain

1.   La conception et le développement des systèmes d’IA à haut risque permettent, notamment au moyen d’interfaces homme-machine appropriées, un contrôle effectif par des personnes physiques pendant leur période d’utilisation.

2.   Le contrôle humain vise à prévenir ou à réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux qui peuvent apparaître lorsqu’un système d’IA à haut risque est utilisé conformément à sa destination ou dans des conditions de mauvaise utilisation raisonnablement prévisible, en particulier lorsque de tels risques persistent malgré l’application d’autres exigences énoncées dans la présente section.

3.   Les mesures de contrôle sont proportionnées aux risques, au niveau d’autonomie et au contexte d’utilisation du système d’IA à haut risque, et sont assurées au moyen d’un ou des deux types de mesures suivants:

a)

des mesures identifiées et, lorsque cela est techniquement possible, intégrées par le fournisseur dans le système d’IA à haut risque avant la mise sur le marché ou la mise en service de ce dernier;

b)

des mesures identifiées par le fournisseur avant la mise sur le marché ou la mise en service du système d’IA à haut risque et qui se prêtent à une mise en œuvre par le déployeur.

4.   Aux fins de la mise en œuvre des dispositions des paragraphes 1, 2 et 3, le système d’IA à haut risque est fourni au déployeur de telle manière que les personnes physiques chargées d’effectuer un contrôle humain, dans la mesure où cela est approprié et proportionné, ont la possibilité:

a)

de comprendre correctement les capacités et les limites pertinentes du système d’IA à haut risque et d’être en mesure de surveiller correctement son fonctionnement, y compris en vue de détecter et de traiter les anomalies, les dysfonctionnements et les performances inattendues;

b)

d’avoir conscience d’une éventuelle tendance à se fier automatiquement ou excessivement aux sorties produites par un système d’IA à haut risque (biais d’automatisation), en particulier pour les systèmes d’IA à haut risque utilisés pour fournir des informations ou des recommandations concernant les décisions à prendre par des personnes physiques;

c)

d’interpréter correctement les sorties du système d’IA à haut risque, compte tenu par exemple des outils et méthodes d’interprétation disponibles;

d)

de décider, dans une situation particulière, de ne pas utiliser le système d’IA à haut risque ou d’ignorer, remplacer ou inverser la sortie du système d’IA à haut risque;

e)

d’intervenir dans le fonctionnement du système d’IA à haut risque ou d’interrompre le système au moyen d’un bouton d’arrêt ou d’une procédure similaire permettant au système de s’arrêter de manière sécurisée.

5.   Pour les systèmes d’IA à haut risque visés à l’annexe III, point 1 a), les mesures prévues au paragraphe 3 du présent article sont de nature à garantir que, en outre, aucune mesure ou décision n’est prise par le déployeur sur la base de l’identification résultant du système sans vérification et confirmation distinctes de cette identification par au moins deux personnes physiques disposant des compétences, de la formation et de l’autorité nécessaires.

L’exigence d’une vérification distincte par au moins deux personnes physiques ne s’applique pas aux systèmes d’IA à haut risque utilisés à des fins répressives ou dans les domaines de la migration, des contrôles aux frontières ou de l’asile, lorsque le droit de l’Union ou le droit national considère que l’application de cette exigence est disproportionnée.

Perspective avec d’autres textes

Perspective Européenne

RGPD – Principe d’accountability et contrôle humain : notamment lorsque des décisions automatisées impactent les droits des personnes.

Directive sur la responsabilité des produits (85/374/CEE) : renforce la nécessité de garantir un contrôle humain sur les systèmes présentant des risques.

Perspective Française

CNIL – Recommandations sur l’IA et supervision humaine : guides pratiques sur la mise en place de mécanismes de contrôle humain dans les systèmes à haut risque.

Garantir un contrôle humain effectif sur votre IA à haut risque peut être complexe. L’équipe de DPO externe de Mon Expert RGPD vous accompagne.

Newsletter S'inscrire

Recevez nos derniers articles et actualités directement dans votre boîte de réception !

Votre e-mail est en sécurité 🔒. En entrant votre e-mail, vous acceptez de recevoir nos newsletter et des informations sur nos services. Vos données sont traitées conformément à notre Politique de Confidentialité et vous pouvez vous désinscrire à tout moment.