📍82 Boulevard Haussmann, 75008 Paris

Article 13 IA ACT : Transparence et information des déployeurs

Table des matières

Explication de l’article

L’article 13 de l’IA ACT impose aux fournisseurs de systèmes d’IA à haut risque de fournir des informations complètes et accessibles aux utilisateurs finaux (déployeurs) du système.

Ces informations doivent permettre de :

  • Comprendre le fonctionnement du système et ses limites ;
  • Identifier les risques associés à son usage ;
  • Interpréter correctement les résultats et les utiliser de manière responsable ;
  • Assurer la conformité et la sécurité lors de l’utilisation de l’IA.

Contrairement à de simples avertissements généraux, cette obligation exige que les utilisateurs disposent de documents clairs et exploitables (instructions, guides, fiches techniques) pour une utilisation responsable.

L’intérêt concret de cet article 

  1. Favoriser l’usage responsable et éclairé des systèmes d’IA.
  2. Réduire les risques d’erreurs, discriminations ou décisions inappropriées.
  3. Faciliter la conformité légale et la traçabilité pour les autorités.
  4. Renforcer la confiance des utilisateurs et des tiers dans les systèmes d’IA.

Notions clés à comprendre

Transparence : capacité pour l’utilisateur de comprendre le fonctionnement, les décisions et les limites du système.

Instructions d’utilisation : documentation claire et accessible décrivant le système, ses objectifs, ses limites et les risques connus.

Déployeur / utilisateur professionnel : personne ou entité utilisant le système dans un cadre professionnel, responsable de son utilisation correcte.

Capacités et limites : portée fonctionnelle du système et conditions dans lesquelles il peut produire des résultats fiables.

Responsabilité d’usage : obligation pour l’utilisateur de se conformer aux instructions et d’agir avec discernement.

Exemple pratique

Un fabricant de diagnostic médical fournit un système d’IA pour la détection du cancer. Le manuel (Article 13) doit inclure :

Identification du fournisseur :

  • Nom, adresse, contact du fabricant
  • Représentant autorisé en Europe si fabricant non-UE
  • Support technique disponible 24/7

Capacités et limites :

Détection de cancers : sensibilité de 97% (95% intervalle confiance), spécificité 95%

MAIS : Limité à des détection numériques haute résolution

MAIS : Pas entraîné sur images de personnes de < 25 ans

Risques connus :

Faux négatifs (2-3% des cancers non détectés) = conséquence grave = décès possible

Faux positifs = biopsies inutiles = stress et complications

Mauvaise utilisation : utiliser sur images de mauvaise qualité réduit fiabilité

Données d’entraînement :

Entraîné sur 50,000 images de 5 hôpitaux européens

 50% femmes, 50% hommes

Chaque diagnostic doit être vérifié par un radiologue compétent avant action clinique.

Maintenance et performance :

Mises à jour logicielles : vérifier auprès du support tous les mois

Durée de vie : 5 ans avec maintenance régulière

En cas de dégradation de performance > 5% : contacter support.

Vous ne savez pas quelles informations transmettre aux déployeurs pour que votre IA soit correctement utilisée ?
Vous ne savez pas quelles informations transmettre aux déployeurs pour que votre IA soit correctement utilisée ?

Texte original de l’IA Act

Article 13 – Transparence et fourniture d’informations aux déployeurs

1.   La conception et le développement des systèmes d’IA à haut risque sont tels que le fonctionnement de ces systèmes est suffisamment transparent pour permettre aux déployeurs d’interpréter les sorties d’un système et de les utiliser de manière appropriée. Un type et un niveau adéquats de transparence sont garantis afin de veiller au respect des obligations pertinentes incombant au fournisseur et au déployeur énoncées à la section 3.

2.   Les systèmes d’IA à haut risque sont accompagnés d’une notice d’utilisation dans un format numérique approprié ou autre, contenant des informations concises, complètes, exactes et claires, qui soient pertinentes, accessibles et compréhensibles pour les déployeurs.

3.   La notice d’utilisation contient au moins les informations suivantes:

a)

l’identité et les coordonnées du fournisseur et, le cas échéant, de son mandataire;

b)

les caractéristiques, les capacités et les limites de performance du système d’IA à haut risque, notamment:

i)

sa destination;

ii)

le niveau d’exactitude, y compris les indicateurs utilisés, de robustesse et de cybersécurité visé à l’article 15 qui a servi de référence pour les tests et la validation du système d’IA à haut risque et qui peut être attendu, ainsi que toutes circonstances connues et prévisibles susceptibles d’avoir une incidence sur le niveau attendu d’exactitude, de robustesse et de cybersécurité;

iii)

toutes circonstances connues ou prévisibles liées à l’utilisation du système d’IA à haut risque conformément à sa destination ou dans des conditions de mauvaise utilisation raisonnablement prévisible, susceptibles d’entraîner des risques pour la santé et la sécurité ou pour les droits fondamentaux visés à l’article 9, paragraphe 2;

iv)

le cas échéant, les capacités et caractéristiques techniques du système d’IA à haut risque à fournir des informations pertinentes pour expliquer ses sorties;

v)

le cas échéant, sa performance en ce qui concerne des personnes ou groupes de personnes spécifiques à l’égard desquels le système est destiné à être utilisé;

vi)

le cas échéant, les spécifications relatives aux données d’entrée, ou toute autre information pertinente concernant les jeux de données d’entraînement, de validation et de test utilisés, compte tenu de la destination du système d’IA à haut risque;

vii)

le cas échéant, les informations permettant aux déployeurs d’interpréter les sorties du système d’IA à haut risque et de les utiliser de manière appropriée;

c)

les modifications du système d’IA à haut risque et de sa performance qui ont été prédéterminées par le fournisseur au moment de l’évaluation initiale de la conformité, le cas échéant;

d)

les mesures de contrôle humain visées à l’article 14, notamment les mesures techniques mises en place pour faciliter l’interprétation des sorties des systèmes d’IA à haut risque par les déployeurs;

e)

les ressources informatiques et matérielles nécessaires, la durée de vie attendue du système d’IA à haut risque et toutes les mesures de maintenance et de suivi, y compris leur fréquence, nécessaires pour assurer le bon fonctionnement de ce système d’IA, notamment en ce qui concerne les mises à jour logicielles;

f)

le cas échéant, une description des mécanismes compris dans le système d’IA à haut risque qui permet aux déployeurs de collecter, stocker et interpréter correctement les journaux, conformément à l’article 12.

Perspective avec d’autres textes

Perspective Européenne

RGPD – Principe de transparence (art. 5, 12-14) : obligation de fournir des informations compréhensibles sur le traitement des données.

Directive sur la sécurité des produits (2001/95/CE) : obligation d’informer les utilisateurs sur l’usage sûr des produits.

Directive sur les droits des consommateurs (2011/83/UE)

Cette directive exige des informations claires et complètes aux consommateurs. L’Article 13 l’applique aux déployeurs d’IA.

Perspective Française

Code de la consommation – Information du consommateur

L’Article L. 111-1 du Code exige que les informations fournies aux consommateurs soient claires et compréhensibles. L’Article 13 applique cela aux systèmes d’IA.

CNIL – Droit à l’explication

La CNIL française a développé un droit à l’explication pour les décisions algorithmiques, qui s’aligne avec l’Article 13.

L’IA ACT impose des obligations de transparence strictes. L’équipe de DPO externe de Mon Expert RGPD vous accompagne.

Newsletter S'inscrire

Recevez nos derniers articles et actualités directement dans votre boîte de réception !

Votre e-mail est en sécurité 🔒. En entrant votre e-mail, vous acceptez de recevoir nos newsletter et des informations sur nos services. Vos données sont traitées conformément à notre Politique de Confidentialité et vous pouvez vous désinscrire à tout moment.