📍82 Boulevard Haussmann, 75008 Paris

Article 4 IA ACT : Littératie en matière d'IA

Table des matières

Explication de l’article

L’article 4 de l‘IA ACT  impose aux prestataires et utilisateurs de systèmes d’IA de s’assurer que les personnes qui manipulent ou utilisent ces systèmes possèdent les connaissances et compétences nécessaires.

Objectif de l’article 4 :

  • Garantir que ceux qui développent, déploient ou utilisent des systèmes d’IA comprennent leur fonctionnement, leurs limites et les risques associés.
  • Prévenir les erreurs ou mauvaises utilisations qui pourraient causer des problèmes même si le système est techniquement conforme aux règles.

Qui est concerné ?

  • Prestataires : ceux qui créent ou mettent sur le marché des systèmes d’IA. Ils doivent former leur personnel pour s’assurer que le système est correctement utilisé.
  • Utilisateurs : entreprises ou organisations qui utilisent des systèmes d’IA. Ils doivent former leurs employés pour éviter des erreurs et garantir une utilisation responsable.

Même un système d’IA parfaitement conçu peut être dangereux s’il est mal utilisé ou mal compris.

L’article 4 met l’accent sur la dimension humaine de la sécurité et de la conformité. Comprendre les risques et les limitations d’un système est essentiel pour protéger les personnes et respecter la loi.

L’article 4 rappelle que la technologie seule ne suffit pas : il faut aussi des personnes formées et compétentes pour utiliser l’IA de manière sûre et responsable. C’est une obligation préventive pour réduire les risques liés à l’utilisation des systèmes d’IA.

Notions clés à comprendre

Littératie en IA : Connaissances, compétences et compréhension nécessaires pour utiliser ou superviser correctement un système d’IA.

Prestataire : L’entreprise ou l’organisation qui développe ou met sur le marché un système d’IA. Elle doit former son personnel pour assurer une utilisation sûre et conforme.

Utilisateur : L’entreprise ou l’organisation qui utilise un système d’IA dans le cadre de ses activités professionnelles. Elle doit former les personnes qui manipulent le système.

Formation et expérience : L’article 4 exige que le personnel et les utilisateurs aient l’expérience et la compréhension suffisantes pour identifier les risques, les limites et les impacts potentiels du système d’IA.

Utilisation responsable : Utiliser le système d’IA de manière à minimiser les erreurs, respecter les droits fondamentaux et éviter tout préjudice.

Dimension humaine de la conformité : Même un système techniquement conforme peut poser des problèmes si les utilisateurs ne comprennent pas son fonctionnement ou ses limites.

Obligation préventive : L’article 4 vise à prévenir les incidents liés à l’ignorance ou à l’incompétence, plutôt que d’agir après qu’un problème soit survenu.

Exemple pratique

Une clinique européenne utilise un système d’IA pour aider les médecins à analyser des images médicales et proposer des diagnostics. Ce système est techniquement conforme aux normes de sécurité et aux obligations de l’IA Act.

Si les médecins ou le personnel ne comprennent pas :

  • les limites du système
  • la signification des recommandations de l’IA,
  • les risques associés à une mauvaise interprétation,

alors le système pourrait provoquer des erreurs médicales, même s’il fonctionne correctement.

Application de l’IA Act (article 4) :

La clinique doit former les médecins et le personnel à utiliser le système de manière responsable.

La formation inclut la compréhension des limites de l’IA, la façon d’interpréter les résultats, et les mesures à prendre en cas d’incertitude.

Les prestataires du système d’IA doivent également s’assurer que leurs outils sont accompagnés de guides et de supports pédagogiques pour les utilisateurs.

En conséquence, les médecins utilisent le système de manière éclairée et sûre, ce qui réduit le risque d’erreurs.

Les patients sont mieux protégés, et la clinique respecte les obligations de conformité.

L’IA devient un outil efficace et fiable, non seulement sur le plan technique, mais aussi sur le plan humain.

Cet exemple montre que la conformité technique seule ne suffit pas : la formation et la compréhension des utilisateurs sont essentielles pour garantir une utilisation responsable et sécurisée des systèmes d’IA.

Vos équipes sont-elles suffisamment formées aux risques et usages de l’IA ?
L’AI Act impose un niveau minimal de compréhension de l’IA pour les personnes qui la conçoivent ou l’utilisent.

Texte original de l’IA Act

Article 4 – Littératie en matière d’IA

Les fournisseurs et les déployeurs de systèmes d’IA prennent des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l’IA pour leur personnel et les autres personnes s’occupant du fonctionnement et de l’utilisation des systèmes d’IA pour leur compte, en prenant en considération leurs connaissances techniques, leur expérience, leur éducation et leur formation, ainsi que le contexte dans lequel les systèmes d’IA sont destinés à être utilisés, et en tenant compte des personnes ou des groupes de personnes à l’égard desquels les systèmes d’IA sont destinés à être utilisés.

Perspectives avec d’autres textes

Perspectives européennes

Directive sur la formation des travailleurs (2019/1152)
Cette directive établit les droits des travailleurs à la formation professionnelle. L’article 4 de l’IA Act s’inscrit dans ce cadre en étendant la formation aux compétences spécifiques liées à l’IA.

Avis du Conseil Européen de la Protection des Données (EDPB)

Recommendations on AI Literacy : souligne l’importance de la littératie en IA pour garantir la conformité au RGPD et protéger les données personnelles.

Orientations de la Commission européenne

Q&A sur l’AI literacy (mai 2025) : clarifie comment appliquer l’obligation de littératie en IA : formation des équipes, contenu des programmes, outils d’évaluation.

L’obligation concerne toutes les personnes impliquées dans l’utilisation de systèmes d’IA, pas seulement les employés directs.

Repository of AI literacy practices / AI Pact
La Commission a créé un répertoire vivant de bonnes pratiques pour aider entreprises et organisations publiques à développer des programmes de formation et d’alphabétisation en IA.

Webinars et sessions pratiques
Des sessions pratiques ont été organisées (ex. février 2025) pour montrer des exemples concrets et expliquer l’approche de l’UE sur la littératie en IA.

Perspectives françaises 

Recommandations de la CNIL
La CNIL a publié des orientations pour aider les organisations à organiser la sensibilisation et la formation aux enjeux de conformité IA et RGPD.

Besoin d’aide pour cet article ?

Comprendre les obligations liées à cet article et éviter les erreurs.

🔓 Échange confidentiel – Sans engagement

Newsletter S'inscrire

Recevez nos derniers articles et actualités directement dans votre boîte de réception !

Votre e-mail est en sécurité 🔒. En entrant votre e-mail, vous acceptez de recevoir nos newsletter et des informations sur nos services. Vos données sont traitées conformément à notre Politique de Confidentialité et vous pouvez vous désinscrire à tout moment.