Article 25 IA ACT - Responsabilités dans la chaîne de valeur de l’IA
Table des matières
Explication de l’article
L’article 25 de l’IA Act constitue un article-pivot de l’AI Act, car il organise la répartition des responsabilités entre tous les acteurs intervenant dans la vie d’un système d’IA à haut risque.
Contrairement à une approche classique où la responsabilité pèserait uniquement sur le fabricant, l’AI Act adopte une logique systémique et collaborative : chaque acteur est responsable à hauteur de son rôle, depuis le développement jusqu’à l’utilisation finale.
L’article 25 vise à :
éviter les angles morts de responsabilité,
garantir la traçabilité complète du système,
assurer une réaction rapide en cas de risque ou d’incident grave,
empêcher les stratégies de contournement (rebranding, modification substantielle, changement de finalité).
Il pose également un principe fondamental :
un acteur peut devenir juridiquement “fournisseur” s’il modifie substantiellement un système ou le commercialise sous sa propre marque, même s’il ne l’a pas développé.
Notions clés à comprendre
Chaîne de valeur de l’IA : Ensemble des acteurs impliqués dans :
la conception,
la mise sur le marché,
la distribution,
l’intégration,
et l’utilisation du système d’IA.
Fournisseur : Acteur qui développe ou met sur le marché un système d’IA sous son nom ou sa marque, ou qui en modifie substantiellement la finalité ou le fonctionnement.
Modification substantielle : Changement qui affecte la conformité, la sécurité ou la finalité du système (ex. ajout d’un module de décision automatique).
Traçabilité : Capacité à identifier :
qui a fait quoi,
à quel moment,
et avec quels effets sur le système.
Coopération : Obligation pour les acteurs de collaborer entre eux et avec les autorités compétentes.
Exemple pratique
Une banque utilise un système d’IA pour évaluer la solvabilité de clients.
Acteurs de la chaîne de valeur
1. Fournisseur initial
- Développe l’algorithme.
- Fournit la documentation technique et la gestion des risques.
2. Distributeur
- Commercialise la solution à la banque.
- Vérifie la présence du marquage CE et de la documentation.
3. Utilisateur professionnel (banque)
- Utilise l’IA pour orienter les décisions de crédit.
- Met en place une supervision humaine et des audits internes.
4. Modification substantielle
- La banque adapte l’algorithme pour automatiser le refus de crédit.
- Elle devient juridiquement fournisseur au sens de l’article 25.
Incident
Un biais discriminatoire est détecté :
Chaque acteur fournit ses logs.
Le fournisseur corrige le modèle.
La banque suspend l’utilisation du système.
Texte original de l’IA Act
Article 25 – Responsabilités tout au long de la chaîne de valeur de l’IA
1. Tout distributeur, importateur, déployeur ou autre tiers est considéré comme un fournisseur d’un système d’IA à haut risque aux fins du présent règlement et est soumis aux obligations incombant au fournisseur au titre de l’article 16 dans toutes les circonstances suivantes:
| a) | il commercialise sous son propre nom ou sa propre marque un système d’IA à haut risque déjà mis sur le marché ou mis en service, sans préjudice des dispositions contractuelles prévoyant une autre répartition des obligations; |
| b) | il apporte une modification substantielle à un système d’IA à haut risque qui a déjà été mis sur le marché ou a déjà été mis en service de telle manière qu’il reste un système d’IA à haut risque en application de l’article 6; |
| c) | il modifie la destination d’un système d’IA, y compris un système d’IA à usage général, qui n’a pas été classé à haut risque et a déjà été mis sur le marché ou mis en service de telle manière que le système d’IA concerné devient un système d’IA à haut risque conformément l’article 6. |
3. Lorsque des systèmes d’IA à haut risque constituent des composants de sécurité de produits couverts par la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section A, le fabricant de ces produits est considéré comme étant le fournisseur du système d’IA à haut risque et est soumis aux obligations visées à l’article 16 dans l’un des deux cas suivants:
| a) | le système d’IA à haut risque est mis sur le marché avec le produit sous le nom ou la marque du fabricant du produit; |
| b) | le système d’IA à haut risque est mis en service sous le nom ou la marque du fabricant du produit après que le produit a été mis sur le marché. |
Perspectives avec d’autres textes
Perspectives européennes
Règlement (UE) 2019/1020 – Surveillance du marché
Responsabilité partagée des opérateurs économiques.
New Legislative Framework
Logique identique pour les produits industriels (marquage CE).
AI Act – Articles 16 à 24
Détail des obligations spécifiques des fournisseurs, importateurs, distributeurs et utilisateurs.
Charte des droits fondamentaux de l’UE
Protection des droits affectés par les systèmes d’IA à haut risque.
Perspectives françaises
Code de la consommation
Responsabilité du professionnel mettant un produit sur le marché.
Code civil – Responsabilité civile
Faute liée à un défaut de sécurité ou de conformité.
CNIL – Doctrine IA
Approche par la chaîne de responsabilité et la traçabilité des traitements.
Lignes directrices, avis et soft law
Avis du CEPD
Nécessité d’une responsabilité distribuée.
OCDE – Recommandations sur l’IA responsable
Gouvernance multi-acteurs.
UNESCO – Recommandation sur l’éthique de l’IA
Responsabilité tout au long du cycle de vie
La répartition des responsabilités en IA peut sembler complexe. L’équipe de DPO externe de Mon Expert RGPD vous accompagne.
Menu IA Act
Besoin d’aide pour cet article ?
Comprendre les obligations liées à cet article et éviter les erreurs.
🔓 Échange confidentiel – Sans engagement