L’IA de nouveau sous les feux des régulateurs : la Californie légifère

25 octobre 2024

Septembre a été marqué par un afflux de plus de 30 propositions législatives en Californie visant à légiférer sur le développement et l’utilisation de l’intelligence artificielle (l’« IA »), en imposant notamment des exigences spécifiques aux systèmes d’IA générative. Bien que le gouverneur de la Californie, Gavin Newsom, ait mis son veto à certaines de ces propositions, plusieurs lois régulant l’utilisation de l’IA ont été adoptées dans cet État.

Parmi ces projets de loi figurent la Loi sur la transparence de l’IA, SB 942 California AI Transparency Act (la « loi SB 942 ») ainsi que la Loi sur l’IA générative et la transparence des données d’entraînement, AB 2013 Generative Artificial Intelligence: Training Data Transparency (la « loi AB 2013 »).

Cet article résume les grandes lignes de la loi SB 942 et de la loi AB 2013.

Loi SB 942

La loi SB 942 entrera en vigueur le 1er janvier 2026. Elle établira de nouvelles obligations de transparence pour les fournisseurs de systèmes d’IA générative. Notamment, elle prévoit que les fournisseurs assujettis devront :

  • Mettre gratuitement à la disposition des utilisateurs du système d’IA un outil de détection de l’IA;
  • Inclure une divulgation latente (définie ci-dessous), dans le contenu généré par l’IA;
  • Offrir aux utilisateurs de l’IA la possibilité d’inclure une divulgation manifeste indiquant que le contenu est généré par l’IA; et
  • Conclure un contrat avec les titulaires de licence les obligeant à maintenir la capacité du système d’IA à inclure une telle divulgation latente dans le contenu que le système crée ou modifie.

Concepts et définitions clés de la Loi SB 942

La loi SB 942 définit les concepts clés suivants (notre traduction).

« Fournisseur assujetti » : Une personne qui crée, programme ou produit autrement un système d’IA générative qui compte plus d’un million de visiteurs ou d’utilisateurs mensuels et qui est accessible au public à l’intérieur des frontières géographiques de l’État californien (soulignement ajouté).

« Système d’intelligence artificielle générative » : Une IA qui peut générer du contenu synthétique dérivé, notamment du texte, des images, des vidéos et du son, qui imite la structure et les caractéristiques des données d’entraînement du système.

« Intelligence artificielle » : Un système conçu ou basé sur une machine dont le niveau d’autonomie varie et qui peut, pour des objectifs explicites ou implicites, déduire, à partir des données reçues, comment générer des résultats qui peuvent influencer des environnements physiques ou virtuels.

Exigences pour les fournisseurs assujettis

Outil de détection de l’IA

Les fournisseurs assujettis seront tenus de mettre gratuitement à la disposition des utilisateurs du système d’IA des outils leur permettant d’évaluer si une image, une vidéo ou un son a été généré ou modifié à l’aide d’un système d’IA.

Divulgation du contenu généré par l’IA

Pour tout contenu (image, vidéo, son ou une combinaison de ces éléments) généré par un système d’IA générative, les fournisseurs assujettis devront offrir aux utilisateurs des mécanismes de divulgation latente et une option de divulgation manifeste.

DIVULGATION LATENTE

En vertu de la loi SB 942, le terme latent signifie « présent, mais non manifeste ». Cette définition fait référence aux métadonnées liées au contenu généré par l’IA. Les métadonnées sont définies dans cette loi comme « des informations structurelles ou descriptives sur les données ». Elles sont non détectables à l’œil nu, mais permettent, à l’aide d’outils spécialisés, d’obtenir des informations sur la structure et la nature des données utilisées pour générer du contenu. Cette mesure permet donc une plus grande traçabilité des contenus d’IA générative.

Pour ce faire, les fournisseurs assujettis devront, dans la mesure où cela est techniquement réalisable et raisonnable, communiquer : le nom du fournisseur assujetti, le nom et le numéro de version du système d’IA générative, l’heure et la date de la création ou de la modification du contenu, et un identifiant unique.

La communication de ces informations devra se faire soit directement ou par un lien vers un site Web permanent.

Les divulgations latentes devront également être détectables par l’outil de détection de l’IA, conformément aux normes généralement acceptées de l’industrie, et devront être soit permanentes, soit très difficiles à supprimer, dans la mesure où cela est techniquement possible.

DIVULGATION MANIFESTE

Un fournisseur assujetti doit fournir à l’utilisateur l’option d’aviser une personne physique, d’une manière claire, bien visible, adaptée au support du contenu et compréhensible pour une personne raisonnable, qu’un contenu a été généré par l’IA. Une divulgation manifeste doit être permanente ou très difficile à supprimer, dans la mesure où cela est techniquement possible.

Responsabilité des fournisseurs assujettis quant aux licences accordées

Enfin, les fournisseurs assujettis qui concèdent une licence de leurs systèmes d’IA générative à des tiers seront tenus de s’assurer que les titulaires de licence respectent ces exigences en matière de divulgation. Si les fournisseurs assujettis ont connaissance que les titulaires de licence tierces ne sont pas en mesure d’inclure ces divulgations, ils seront tenus de révoquer leurs licences dans les 96 heures.

Sanctions

Un fournisseur assujetti qui enfreint les obligations prévues à la loi est passible d’une amende de 5 000 $ par infraction.

Loi AB 2013

La loi AB 2013 entrera également en vigueur le 1er janvier 2026. Cette loi établit de nouvelles obligations de transparence pour les développeurs de systèmes d’IA générative. Notamment, elle prévoit que les développeurs de ces technologies devront divulguer sur leurs sites Web une documentation décrivant les données utilisées pour entraîner leurs systèmes d’IA générative. Cette obligation devra être mise en œuvre avant que le système ne soit mis à la disposition des particuliers en Californie.

Concepts et définitions clés de la loi AB 2013

La loi AB 2013 définit les concepts clés suivants (notre traduction).

« Développeur » : Une personne, un partenariat, une agence gouvernementale locale ou d’État, ou une société qui conçoit, programme, produit ou modifie substantiellement un système ou un service d’intelligence artificielle destiné à être utilisé par des particuliers.

« Modification substantielle » : Une nouvelle version, un nouveau lancement ou une autre mise à jour d’un système ou d’un service d’intelligence artificielle générative qui modifient de façon importante son fonctionnement ou sa performance, y compris les résultats de l’adaptation d’un modèle de données préalablement entraîné à une nouvelle tâche ou d’une mise au point.

Application de la loi AB 2013

À l’instar de plusieurs autres nouveaux instruments législatifs en matière d’IA, la loi AB 2013 comporte une disposition concernant des droits acquis qui exempte les systèmes d’IA générative mis sur le marché avant le 1er janvier 2022. Les dispositions de la loi s’appliqueront également aux modifications substantielles apportées à un système d’IA générative après le 1er janvier 2022.

Exigences pour les développeurS d’IA

La documentation concernant les données utilisées par un développeur pour bâtir le système ou le service d’intelligence artificielle générative doit indiquer :

  • Les sources ou les propriétaires des ensembles de données;
  • La manière dont les ensembles de données contribuent à l’objectif visé par le système d’IA;
  • Le nombre total de données dans l’ensemble de données;
  • Une description des types de points de données, c’est-à-dire si elles sont classées ou non;
  • Si les ensembles comportent des données protégées par des droits d’auteur, marques de commerce ou brevets ou si elles appartiennent au domaine public;
  • Une mention à savoir si les ensembles de données ont été achetés ou concédés sous licence par le développeur;
  • Si les données comprennent des renseignements personnels;
  • Si les ensembles de données comprennent des renseignements agrégés sur les consommateurs;
  • L’existence d’un nettoyage, d’un traitement ou d’une autre modification des ensembles de données par le développeur, y compris l’objectif visé par ces efforts en relation avec le système d’IA;
  • La période au cours de laquelle les données contenues dans les ensembles de données ont été collectées, y compris un avis si la collecte de données est en cours;
  • Les dates auxquelles les ensembles de données ont été utilisés pour la première fois au cours du développement du système ou du service d’IA;
  • Si le système d’IA générative a utilisé ou utilise en permanence la génération de données synthétiques dans son développement.

ExceptionS

Un développeur ne sera pas tenu de publier la documentation dans les cas suivants :

  • Un système d’IA générative a pour seul objet de contribuer à garantir la sécurité et l’intégrité des réseaux ou des systèmes d’information ou la sécurité physique des personnes physiques. Le Code civil californien entend par « sécurité et intégrité » 1) la capacité des réseaux ou des systèmes d’information à détecter les incidents de sécurité qui compromettent la disponibilité, l’authenticité, l’intégrité et la confidentialité des informations personnelles stockées ou transmises; 2) la capacité à détecter les incidents de sécurité, à résister aux actions malveillantes, trompeuses, frauduleuses ou illégales et à aider à poursuivre les responsables de ces actions; 3) la capacité à assurer la sécurité physique des personnes physiques.
  • Un système d’IA générative dont le seul objet est l’exploitation d’aéronefs dans l’espace aérien national.
  • Un système d’IA générative développée à des fins de sécurité nationale, militaire ou de défense et qui n’est mis à la disposition que d’une entité fédérale.

pourquoi est-ce important?

L’essor fulgurant du contenu généré par l’IA pose de nombreux défis, dont la difficulté croissante pour les consommateurs de faire la distinction entre ce type de contenu et celui créé par une personne physique. La Californie vise à favoriser davantage de transparence de la part des entreprises qui œuvrent dans ce domaine et, ainsi, permettre aux utilisateurs d’interagir avec du contenu généré par l’IA en toute connaissance de cause et faire des choix éclairés.

Les entreprises dont les activités sont encadrées par ces lois, dont certaines entreprises canadiennes, pourraient donc être appelées à revoir leurs pratiques d’ici le 31 décembre 2025 pour s’assurer de leur conformité avec les nouvelles dispositions législatives.

VETO concernant le projet de loi 1047

Enfin, soulignons que le 29 septembre dernier, le gouverneur de la Californie a opposé son veto au projet de loi 1047, SB 1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, qui visait à imposer des obligations importantes aux développeurs et opérateurs de grands modèles d’IA, tels que des mesures de sécurité obligatoires, des audits annuels, des obligations de divulgation pour les incidents, etc. Le gouverneur a expliqué son refus de promulguer cette loi au motif qu’elle pourrait engendrer un faux sentiment de sécurité en se concentrant uniquement sur les grands modèles d’IA, alors que d’autres modèles peuvent comporter tout autant, sinon plus de risques. Le gouverneur s’est engagé à continuer à travailler avec les intervenants pertinents pour trouver la meilleure façon de protéger le public.

CONCLUSION

Au Canada, l’examen du projet de loi C-27, lequel viendrait, entre autres, édicter la Loi sur l’intelligence artificielle et les données, est suspendu depuis le 26 septembre. Bien que l’avenir de celle-ci sous sa forme actuelle soit incertain, on doit s’attendre à ce que le Canada se dote plus tôt que tard d’un cadre législatif relatif à l’IA. Ces nouveaux développements en Californie reflètent une préoccupation croissante des législateurs à l’égard de la transparence et de la conformité en matière d’IA. Il paraît de plus en plus important pour les entreprises et les organismes publics de développer et de mettre en œuvre des pratiques de gouvernance à ce sujet dès aujourd’hui.