Article 5 IA ACT : Pratiques interdites d'IA
Table des matières
Explication de l’article
L’article 5 de l‘IA ACT fixe une limite absolue pour certaines utilisations de l’IA, considérées comme inacceptables en Europe.
Objectif de l’article 5 :
- Protéger les droits fondamentaux, la sécurité et les valeurs démocratiques de l’Union européenne.
- Empêcher certaines pratiques d’IA qui sont jugées trop dangereuses ou contraires aux valeurs européennes.
Différence avec les systèmes à haut risque :
- Les systèmes à haut risque doivent respecter des obligations de conformité pour être utilisés.
- Les pratiques interdites par l’article 5 sont strictement prohibées : il n’existe aucune possibilité de les rendre conformes.
Certaines utilisations de l’IA, comme le profilage social de masse ou les systèmes manipulant les comportements humains de manière intrusive, sont jugées incompatibles avec la société européenne.
L’article 5 envoie un signal clair : certaines technologies ne doivent jamais être utilisées, peu importe les mesures de contrôle.
L’article 5 est entré en vigueur le 2 février 2025, avant la plupart des autres dispositions de l’IA Act, soulignant son importance et sa priorité dans la réglementation.
L’article 5 est un outil de prévention strict, qui complète les obligations de conformité pour les systèmes à haut risque.
Notions clés à comprendre
Pratiques d’IA à risque inacceptable : Usages de l’intelligence artificielle jugés contraires aux droits fondamentaux, à la sécurité ou aux valeurs démocratiques de l’Union européenne.
Interdiction absolue : Les pratiques identifiées ne peuvent en aucun cas être utilisées, même avec des mesures de contrôle ou de conformité.
Haut risque : utilisation possible sous conditions strictes de conformité.
Risque inacceptable : utilisation totalement prohibée.
Protection des droits fondamentaux : Objectif principal de l’interdiction, visant à protéger les citoyens contre des usages dangereux ou discriminatoires de l’IA.
Protection des valeurs démocratiques et de la sécurité : Certaines pratiques, comme la manipulation comportementale de masse ou le profilage social intrusif, sont interdites pour préserver la société et ses institutions.
Priorité réglementaire : L’article est entré en vigueur avant la plupart des autres dispositions de l’IA Act (2 février 2025), montrant son importance et son rôle central.
Techniques subliminales : Méthodes qui influencent le comportement d’une personne sans qu’elle en ait conscience.
Techniques manipulatrices ou trompeuses : Méthodes conçues pour induire en erreur ou manipuler les personnes, compromettant leur capacité à prendre une décision libre et éclairée.
Distorsion substantielle du comportement : Modification significative du comportement d’une personne, au point de réduire son autonomie décisionnelle.
Exploitation des vulnérabilités : Cibler délibérément les faiblesses ou fragilités d’individus ou de groupes (ex. âge, handicap, situation socio-économique).
Système de notation sociale (Social Scoring) : Évaluer des individus ou groupes sur la base de leur comportement social ou personnel dans des contextes non liés, entraînant un traitement défavorable injustifié.
Identification biométrique distante (Remote Biometric Identification – RBI) : Identifier des personnes à distance et sans leur consentement via la comparaison de données biométriques (ex. reconnaissance faciale).
Profilage purement automatisé : Évaluer une personne uniquement par traitement automatisé, sans intervention humaine, par exemple pour estimer des risques criminels.
Reconnaissance des émotions : Détecter ou classer les états émotionnels d’une personne à partir de signaux biologiques ou comportementaux.
Catégorisation biométrique : Classer des personnes dans des catégories spécifiques (orientation sexuelle, statut politique) à partir de données biométriques.
Scraping non ciblé : Extraire de manière systématique des données biométriques sur Internet ou via vidéosurveillance, sans consentement, pour créer ou enrichir des bases de données de reconnaissance faciale.
Exemple pratique
Une start-up développe un système d’IA capable de surveiller les comportements des employés dans un bureau et de noter leur « productivité » via des caméras et des logiciels d’analyse faciale. Le système peut :
- détecter les émotions des employés,
- classer les individus selon leur comportement,
- attribuer des scores de performance pouvant influencer des promotions ou sanctions.
Problème potentiel :
- Les employés ne sont pas informés et n’ont pas consenti à ce traitement.
- Le système utilise des méthodes de profilage automatisé et de catégorisation biométrique.
- Il pourrait modifier le comportement des employés de façon significative (distorsion du comportement), et exploiter les vulnérabilités de certains (stress, anxiété, fragilité socio-économique).
Application de l’IA Act (article 5) :
Ces pratiques entrent directement dans les catégories interdites par l’article 5 : profilage purement automatisé, reconnaissance des émotions, catégorisation biométrique, distorsion du comportement, exploitation des vulnérabilités.
Aucun moyen de rendre ce système conforme : l’utilisation est totalement prohibée dans l’UE.
En conséquence, la start-up ne peut pas déployer ce système en Europe. Les autorités peuvent imposer l’interdiction et des sanctions si le système est utilisé malgré tout.
L’objectif de l’article 5 est atteint : protéger les droits fondamentaux et les valeurs démocratiques, en empêchant une utilisation intrusive et manipulatrice de l’IA.
Cet exemple montre que certaines utilisations de l’IA sont considérées comme inacceptables, peu importe la technologie ou les mesures de contrôle. L’article 5 sert à prévenir les pratiques dangereuses avant qu’elles n’affectent les citoyens.
Texte original de l’IA Act
Article 5 – Pratiques d’IA interdites
1. Les pratiques en matière d’IA suivantes sont interdites:
a) la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui a recours à des techniques subliminales, au-dessous du seuil de conscience d’une personne, ou à des techniques délibérément manipulatrices ou trompeuses, avec pour objectif ou effet d’altérer substantiellement le comportement d’une personne ou d’un groupe de personnes en portant considérablement atteinte à leur capacité à prendre une décision éclairée, amenant ainsi la personne à prendre une décision qu’elle n’aurait pas prise autrement, d’une manière qui cause ou est raisonnablement susceptible de causer un préjudice important à cette personne, à une autre personne ou à un groupe de personnes;
b) la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui exploite les éventuelles vulnérabilités dues à l’âge, au handicap ou à la situation sociale ou économique spécifique d’une personne physique ou d’un groupe de personnes donné avec pour objectif ou effet d’altérer substantiellement le comportement de cette personne ou d’un membre de ce groupe d’une manière qui cause ou est raisonnablement susceptible de causer un préjudice important à cette personne ou à un tiers;
c) la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour l’évaluation ou la classification de personnes physiques ou de groupes de personnes au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites, la note sociale conduisant à l’une ou l’autre des situations suivantes, ou aux deux:
i) le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes de personnes dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l’origine;
ii) le traitement préjudiciable ou défavorable de certaines personnes ou de groupes de personnes, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci;
d) la mise sur le marché, la mise en service à cette fin spécifique ou l’utilisation d’un système d’IA pour mener des évaluations des risques des personnes physiques visant à évaluer ou à prédire le risque qu’une personne physique commette une infraction pénale, uniquement sur la base du profilage d’une personne physique ou de l’évaluation de ses traits de personnalité ou caractéristiques; cette interdiction ne s’applique pas aux systèmes d’IA utilisés pour étayer l’évaluation humaine de l’implication d’une personne dans une activité criminelle, qui est déjà fondée sur des faits objectifs et vérifiables, directement liés à une activité criminelle;
e) la mise sur le marché, la mise en service à cette fin spécifique ou l’utilisation de systèmes d’IA qui créent ou développent des bases de données de reconnaissance faciale par le moissonnage non ciblé d’images faciales provenant de l’internet ou de la vidéosurveillance;
f) la mise sur le marché, la mise en service à cette fin spécifique ou l’utilisation de systèmes d’IA pour inférer les émotions d’une personne physique sur le lieu de travail et dans les établissements d’enseignement, sauf lorsque l’utilisation du système d’IA est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité;
g) la mise sur le marché, la mise en service à cette fin spécifique ou l’utilisation de systèmes de catégorisation biométrique qui catégorisent individuellement les personnes physiques sur la base de leurs données biométriques afin d’arriver à des déductions ou des inférences concernant leur race, leurs opinions politiques, leur affiliation à une organisation syndicale, leurs convictions religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle; cette interdiction ne couvre pas l’étiquetage ou le filtrage d’ensembles de données biométriques acquis légalement, tels que des images, fondés sur des données biométriques ou la catégorisation de données biométriques dans le domaine répressif;
h) l’utilisation de systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives, sauf si et dans la mesure où cette utilisation est strictement nécessaire eu égard à l’un des objectifs suivants:
i) la recherche ciblée de victimes spécifiques d’enlèvement, de la traite ou de l’exploitation sexuelle d’êtres humains, ainsi que la recherche de personnes disparues;
ii) la prévention d’une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique de personnes physiques ou d’une menace réelle et actuelle ou réelle et prévisible d’attaque terroriste;
iii) la localisation ou l’identification d’une personne soupçonnée d’avoir commis une infraction pénale, aux fins de mener une enquête pénale, d’engager des poursuites ou d’exécuter une sanction pénale pour des infractions visées à l’annexe II et punissables dans l’État membre concerné d’une peine ou d’une mesure de sûreté privatives de liberté d’une durée maximale d’au moins quatre ans.
Le premier alinéa, point h), est sans préjudice de l’article 9 du règlement (UE) 2016/679 pour le traitement des données biométriques à des fins autres que répressives.a) la nature de la situation donnant lieu à un éventuel recours au système, en particulier la gravité, la probabilité et l’ampleur du préjudice qui serait causé si le système n’était pas utilisé;
b) les conséquences de l’utilisation du système sur les droits et libertés de toutes les personnes concernées, notamment la gravité, la probabilité et l’ampleur de ces conséquences.
En outre, l’utilisation de systèmes d’identification biométriques à distance en temps réel dans des espaces accessibles au public à des fins répressives en vue de la réalisation de l’un des objectifs énumérés au paragraphe 1, premier alinéa, point h), du présent article respecte les garanties et conditions nécessaires et proportionnées en ce qui concerne cette utilisation, conformément au droit national qui l’autorise, notamment eu égard aux limitations temporelles, géographiques et relatives aux personnes. L’utilisation du système d’identification biométrique à distance en temps réel dans des espaces accessibles au public n’est autorisée que si l’autorité répressive a réalisé une analyse d’impact sur les droits fondamentaux conformément à l’article 27 et a enregistré le système dans la base de données de l’UE prévue par l’article 49. Toutefois, dans des cas d’urgence dûment justifiés, il est possible de commencer à utiliser ces systèmes sans enregistrement dans la base de données de l’UE, à condition que cet enregistrement soit effectué sans retard injustifié.Perspectives avec d’autres textes
Perspectives européennes
Charte des droits fondamentaux de l’UE
L’article 5 protège spécifiquement des droits tels que :
• Dignité humaine (art. 1)
• Respect de la vie privée (art. 7)
• Protection des données personnelles (art. 8)
• Liberté d’expression (art. 11)
• Non-discrimination (art. 21)
Convention européenne des droits de l’homme (CEDH)
L’article 5 renforce les obligations de la CEDH, notamment :
• Droit à la vie privée (art. 8)
• Droit à un procès équitable (art. 6)
RGPD – Principes de légalité et de loyauté
L’article 5 s’aligne avec le RGPD en interdisant les traitements déloyaux ou contraires au consentement libre et éclairé.
Lignes directrices et recommandations
Guidelines on Prohibited AI Practices (février 2025) : clarifient les catégories de pratiques interdites, les seuils d’interdiction et les exceptions limitées.
Fournissent des critères pour déterminer la distorsion substantielle du comportement.
Avis du Conseil Européen de la Protection des Données (EDPB)
- Clarifications sur l’articulation entre l’article 5 et le RGPD.
- Recommandations sur l’application extraterritoriale.
- Avis sur les interactions avec d’autres droits (travail, consommation).
Service d’aide de l’Office IA – AI Act Service Desk
- Explique comment identifier une pratique interdite.
- Décrit les procédures à suivre en cas de violation
- Informe sur les recours des personnes affectées.
Perspectives françaises
Code pénal
L’article 5 complète les infractions existantes :
• Escroquerie (art. 313-1)
• Abus de faiblesse (art. 223-15-2)
• Discrimination (art. 225-1 et suivants)
L’IA ACT peut sembler complexe. L’équipe de DPO externe de Mon Expert RGPD vous accompagne.
Menu IA Act
Besoin d’aide pour cet article ?
Comprendre les obligations liées à cet article et éviter les erreurs.
🔓 Échange confidentiel – Sans engagement