Un système d’IA est considéré comme étant à risque limité dans les cas suivants :
- il interagit directement avec les utilisateurs;
- il présente des risques minimaux pour les droits et la sécurité des individus.
À titre d’exemples, mentionnons les agents conversationnels et assistants virtuels (comme les robots de service à la clientèle alimentés par l’IA), les outils de création de contenu généré par l’IA (comme les générateurs de texte, créateurs d’images par IA) et les générateurs d’hypertrucages ou de médias synthétiques
En tant que fournisseur d’un système d’IA à risque limité, vous devez vous assurer de ce qui suit :
- les utilisateurs sont clairement informés qu’ils interagissent avec un système d’IA;
- tout contenu généré ou manipulé par l’IA, y compris audio, images, vidéos ou texte, est étiqueté dans un format lisible par machine afin de le rendre détectable comme étant artificiellement généré;
- l’étiquetage de ce contenu est robuste, fiable et interopérable et tient compte de la faisabilité technique et des normes pertinentes.
En tant que déployeurs d’un système d’IA à risque limité, vous devez :
- informer les utilisateurs si le système d’IA est utilisé pour analyser les émotions ou catégoriser des individus sur la base de données biométriques, sauf si le traitement est légalement autorisé pour la détection ou l’enquête sur des infractions;
- le divulguer lorsque le système crée des hypertrucages ou modifie des images, vidéos ou textes diffusés publiquement, sauf si le contenu est manifestement artistique, créatif ou satirique;
- veiller à ce que toutes les informations requises soient fournies aux utilisateurs dès le premier point d’interaction ou d’exposition, et qu’elles respectent les normes d’accessibilité.