📍82 Boulevard Haussmann, 75008 Paris

Article 50 IA ACT : Obligations de transparence pour les fournisseurs et déployeurs de certains systèmes d’IA

Table des matières

Explication de l’article

L’article 50 du Règlement européen sur l’intelligence artificielle établit un ensemble d’obligations de transparence applicables à certains systèmes d’IA, indépendamment de leur qualification en tant que systèmes à haut risque. Il vise à garantir que les utilisateurs et les personnes concernées soient informés de l’utilisation de l’IA.

Le texte couvre plusieurs situations : interaction directe avec une IA, génération de contenus synthétiques, reconnaissance des émotions, catégorisation biométrique et production de deepfakes. Il impose des obligations d’information adaptées à chaque cas.

L’article prévoit également des exceptions, notamment pour les usages liés à la sécurité publique, ainsi que des mécanismes d’encadrement via des codes de bonne pratique.

Notions clés à comprendre

La transparence algorithmique désigne l’obligation d’informer les individus qu’ils interagissent avec une IA ou qu’un contenu est généré par celle-ci.

Les contenus synthétiques incluent les textes, images, vidéos ou sons générés ou manipulés par une IA, dont l’identification est essentielle pour lutter contre la désinformation.

Les systèmes de reconnaissance des émotions et de catégorisation biométrique soulèvent des enjeux particuliers en matière de protection des données personnelles et de respect des droits fondamentaux.

Exemple pratique

Une entreprise déploie un chatbot sur son site internet. Elle doit informer clairement les utilisateurs qu’ils interagissent avec une IA.

De même, une plateforme générant des images via IA doit intégrer un marquage technique permettant d’identifier ces contenus comme artificiels, afin d’éviter toute confusion avec des contenus authentiques.

Vous utilisez une IA et vous ne savez pas quelles informations vous devez fournir aux utilisateurs ?
L'article 50 impose d’informer les personnes lorsqu’elles interagissent avec une IA ou sont exposées à des contenus générés (texte, image, vidéo, deepfake). Ces obligations varient selon les usages et les risques.

Texte original de l’IA Act

Article 50 – Obligations de transparence pour les fournisseurs et les déployeurs de certains systèmes d’IA

  1.   Les fournisseurs veillent à ce que les systèmes d’IA destinés à interagir directement avec des personnes physiques soient conçus et développés de manière que les personnes physiques concernées soient informées qu’elles interagissent avec un système d’IA, sauf si cela ressort clairement du point de vue d’une personne physique normalement informée et raisonnablement attentive et avisée, compte tenu des circonstances et du contexte d’utilisation. Cette obligation ne s’applique pas aux systèmes d’IA dont la loi autorise l’utilisation à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière, sous réserve de garanties appropriées pour les droits et libertés des tiers, sauf si ces systèmes sont mis à la disposition du public pour permettre le signalement d’une infraction pénale.
  2.   Les fournisseurs de systèmes d’IA, y compris de systèmes d’IA à usage général, qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte, veillent à ce que les sorties des systèmes d’IA soient marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA. Les fournisseurs veillent à ce que leurs solutions techniques soient aussi efficaces, interopérables, solides et fiables que la technologie le permet, compte tenu des spécificités et des limites des différents types de contenus, des coûts de mise en œuvre et de l’état de la technique généralement reconnu, comme cela peut ressortir des normes techniques pertinentes. Cette obligation ne s’applique pas dans la mesure où les systèmes d’IA remplissent une fonction d’assistance pour la mise en forme standard ou ne modifient pas de manière substantielle les données d’entrée fournies par le déployeur ou leur sémantique, ou lorsque leur utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière.
  3.   Les déployeurs d’un système de reconnaissance des émotions ou d’un système de catégorisation biométrique informent les personnes physiques qui y sont exposées du fonctionnement du système et traitent les données à caractère personnel conformément au règlement (UE) 2016/679, au règlement (UE) 2018/1725 et à la directive (UE) 2016/680, selon le cas. Cette obligation ne s’applique pas aux systèmes d’IA utilisés pour la catégorisation biométrique et la reconnaissance des émotions dont la loi autorise l’utilisation à des fins de prévention ou de détection des infractions pénales ou d’enquêtes en la matière, sous réserve de garanties appropriées pour les droits et libertés des tiers et conformément au droit de l’Union.
  4.   Les déployeurs d’un système d’IA qui génère ou manipule des images ou des contenus audio ou vidéo constituant un hypertrucage indiquent que les contenus ont été générés ou manipulés par une IA. Cette obligation ne s’applique pas lorsque l’utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière. Lorsque le contenu fait partie d’une œuvre ou d’un programme manifestement artistique, créatif, satirique, fictif ou analogue, les obligations de transparence énoncées au présent paragraphe se limitent à la divulgation de l’existence de tels contenus générés ou manipulés d’une manière appropriée qui n’entrave pas l’affichage ou la jouissance de l’œuvre.

Les déployeurs d’un système d’IA qui génère ou manipule des textes publiés dans le but d’informer le public sur des questions d’intérêt public indiquent que le texte a été généré ou manipulé par une IA. Cette obligation ne s’applique pas lorsque l’utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière, ou lorsque le contenu généré par l’IA a fait l’objet d’un processus d’examen humain ou de contrôle éditorial et lorsqu’une personne physique ou morale assume la responsabilité éditoriale de la publication du contenu.

  1.   Les informations visées aux paragraphes 1 à 4 sont fournies aux personnes physiques concernées de manière claire et reconnaissable au plus tard au moment de la première interaction ou de la première exposition. Les informations sont conformes aux exigences applicables en matière d’accessibilité.
  2.   Les paragraphes 1 à 4 n’ont pas d’incidence sur les exigences et obligations énoncées au chapitre III et sont sans préjudice des autres obligations de transparence prévues par le droit de l’Union ou le droit national pour les déployeurs de systèmes d’IA.
  3.   Le Bureau de l’IA encourage et facilite l’élaboration de codes de bonne pratique au niveau de l’Union afin de faciliter la mise en œuvre effective des obligations relatives à la détection et à l’étiquetage des contenus générés ou manipulés par une IA. La Commission peut adopter des actes d’exécution pour approuver ces codes de bonne pratique conformément à la procédure prévue à l’article 56, paragraphe 6. Si elle estime que le code n’est pas approprié, la Commission peut adopter un acte d’exécution précisant des règles communes pour la mise en œuvre de ces obligations conformément à la procédure d’examen prévue à l’article 98, paragraphe 2.
 

L’IA ACT peut sembler complexe. L’équipe de DPO externe de Mon Expert RGPD vous accompagne pour mettre en place une transparence conforme et éviter tout risque juridique.

Menu IA Act

Besoin d’aide pour cet article ?

Comprendre les obligations liées à cet article et éviter les erreurs.

🔓 Échange confidentiel – Sans engagement

Newsletter S'inscrire

Recevez nos derniers articles et actualités directement dans votre boîte de réception !

Votre e-mail est en sécurité 🔒. En entrant votre e-mail, vous acceptez de recevoir nos newsletter et des informations sur nos services. Vos données sont traitées conformément à notre Politique de Confidentialité et vous pouvez vous désinscrire à tout moment.