Article 13 IA ACT : Transparence et information des déployeurs
Table des matières
Explication de l’article
L’article 13 de l’IA ACT impose aux fournisseurs de systèmes d’IA à haut risque de fournir des informations complètes et accessibles aux utilisateurs finaux (déployeurs) du système.
Ces informations doivent permettre de :
- Comprendre le fonctionnement du système et ses limites ;
- Identifier les risques associés à son usage ;
- Interpréter correctement les résultats et les utiliser de manière responsable ;
- Assurer la conformité et la sécurité lors de l’utilisation de l’IA.
Contrairement à de simples avertissements généraux, cette obligation exige que les utilisateurs disposent de documents clairs et exploitables (instructions, guides, fiches techniques) pour une utilisation responsable.
L’intérêt concret de cet article
- Favoriser l’usage responsable et éclairé des systèmes d’IA.
- Réduire les risques d’erreurs, discriminations ou décisions inappropriées.
- Faciliter la conformité légale et la traçabilité pour les autorités.
- Renforcer la confiance des utilisateurs et des tiers dans les systèmes d’IA.
Notions clés à comprendre
Transparence : capacité pour l’utilisateur de comprendre le fonctionnement, les décisions et les limites du système.
Instructions d’utilisation : documentation claire et accessible décrivant le système, ses objectifs, ses limites et les risques connus.
Déployeur / utilisateur professionnel : personne ou entité utilisant le système dans un cadre professionnel, responsable de son utilisation correcte.
Capacités et limites : portée fonctionnelle du système et conditions dans lesquelles il peut produire des résultats fiables.
Responsabilité d’usage : obligation pour l’utilisateur de se conformer aux instructions et d’agir avec discernement.
Exemple pratique
Un fabricant de diagnostic médical fournit un système d’IA pour la détection du cancer. Le manuel (Article 13) doit inclure :
Identification du fournisseur :
- Nom, adresse, contact du fabricant
- Représentant autorisé en Europe si fabricant non-UE
- Support technique disponible 24/7
Capacités et limites :
Détection de cancers : sensibilité de 97% (95% intervalle confiance), spécificité 95%
MAIS : Limité à des détection numériques haute résolution
MAIS : Pas entraîné sur images de personnes de < 25 ans
Risques connus :
Faux négatifs (2-3% des cancers non détectés) = conséquence grave = décès possible
Faux positifs = biopsies inutiles = stress et complications
Mauvaise utilisation : utiliser sur images de mauvaise qualité réduit fiabilité
Données d’entraînement :
Entraîné sur 50,000 images de 5 hôpitaux européens
50% femmes, 50% hommes
Chaque diagnostic doit être vérifié par un radiologue compétent avant action clinique.
Maintenance et performance :
Mises à jour logicielles : vérifier auprès du support tous les mois
Durée de vie : 5 ans avec maintenance régulière
En cas de dégradation de performance > 5% : contacter support.
Texte original de l’IA Act
Article 13 – Transparence et fourniture d’informations aux déployeurs
1. La conception et le développement des systèmes d’IA à haut risque sont tels que le fonctionnement de ces systèmes est suffisamment transparent pour permettre aux déployeurs d’interpréter les sorties d’un système et de les utiliser de manière appropriée. Un type et un niveau adéquats de transparence sont garantis afin de veiller au respect des obligations pertinentes incombant au fournisseur et au déployeur énoncées à la section 3.
2. Les systèmes d’IA à haut risque sont accompagnés d’une notice d’utilisation dans un format numérique approprié ou autre, contenant des informations concises, complètes, exactes et claires, qui soient pertinentes, accessibles et compréhensibles pour les déployeurs.
3. La notice d’utilisation contient au moins les informations suivantes:
a) | l’identité et les coordonnées du fournisseur et, le cas échéant, de son mandataire; |
b) | les caractéristiques, les capacités et les limites de performance du système d’IA à haut risque, notamment:
|
c) | les modifications du système d’IA à haut risque et de sa performance qui ont été prédéterminées par le fournisseur au moment de l’évaluation initiale de la conformité, le cas échéant; |
d) | les mesures de contrôle humain visées à l’article 14, notamment les mesures techniques mises en place pour faciliter l’interprétation des sorties des systèmes d’IA à haut risque par les déployeurs; |
e) | les ressources informatiques et matérielles nécessaires, la durée de vie attendue du système d’IA à haut risque et toutes les mesures de maintenance et de suivi, y compris leur fréquence, nécessaires pour assurer le bon fonctionnement de ce système d’IA, notamment en ce qui concerne les mises à jour logicielles; |
f) | le cas échéant, une description des mécanismes compris dans le système d’IA à haut risque qui permet aux déployeurs de collecter, stocker et interpréter correctement les journaux, conformément à l’article 12. |
Perspective avec d’autres textes
Perspective Européenne
RGPD – Principe de transparence (art. 5, 12-14) : obligation de fournir des informations compréhensibles sur le traitement des données.
Directive sur la sécurité des produits (2001/95/CE) : obligation d’informer les utilisateurs sur l’usage sûr des produits.
Directive sur les droits des consommateurs (2011/83/UE)
Cette directive exige des informations claires et complètes aux consommateurs. L’Article 13 l’applique aux déployeurs d’IA.
Perspective Française
Code de la consommation – Information du consommateur
L’Article L. 111-1 du Code exige que les informations fournies aux consommateurs soient claires et compréhensibles. L’Article 13 applique cela aux systèmes d’IA.
CNIL – Droit à l’explication
La CNIL française a développé un droit à l’explication pour les décisions algorithmiques, qui s’aligne avec l’Article 13.
L’IA ACT impose des obligations de transparence strictes. L’équipe de DPO externe de Mon Expert RGPD vous accompagne.
Menu IA Act
Besoin d’aide pour cet article ?
Comprendre les obligations liées à cet article et éviter les erreurs.
🔓 Échange confidentiel – Sans engagement