IA générative : le guide de recommandations de sécurité, lecture indispensable

16 décembre 2024 3 min de lecture

L’ANSSI a publié au printemps 2024 un guide détaillé de recommandations pour sécuriser un système d’intelligence artificielle générative. À qui s’adressent-elles ? Sont-elles suffisamment concrètes ? Fort de son expertise, Advens vous livre ici son avis après une lecture minutieuse et critique.

Ce que le guide ne couvre pas

En tant qu’autorité nationale en matière de cybersécurité, l’Agence nationale de la sécurité des systèmes d’information (ANSSI) se consacre avant tout à la prévention et à la gestion des risques cyber. Il est donc logique qu’elle consacre les trente-huit pages de ce guide au volet cybersécurité de l’IA mais n’aborde pas les questions connexes comme les implications éthiques, la protection de la propriété intellectuelle ou encore le secret des affaires.

Autre point d’attention, le guide se focalise sur les IA génératives, ChatGPT, Copilot et Midjourney par exemple, et ne traite pas de la cybersécurité des modèles de conduite automatique de véhicule ou de reconnaissance d’images par exemple. Ainsi, pour bien comprendre la différence entre ces modèles, retrouvez notre introduction à l’IA de confiance en livre blanc.

Ce que vous y trouverez

Ce guide est ainsi une déclinaison concrète de l’IA Act sur le volet de la cybersécurité des IA génératives. Les trente-cinq recommandations de sécurité pour systèmes d’IA générative comportent une dimension pratique et aident les équipes projet à répondre à la question « comment sécuriser les systèmes d’IA générative ».

« Il s’agit d’un excellent guide pour sécuriser son système d’IA : s’y conformer est déjà un très bon début. »
Léonard KEAT, Consultant senior & responsable de l’offre « Sécurité des IA » pour Advens

Ce que nous avons particulièrement apprécié

Pour commencer, il y a deux éléments synthétiques très intéressants dans le guide de l’ANSSI : une représentation du cycle de vie d’un système d’IA générative et un schéma d’architecture global.

Le cycle de vie permet de positionner les recommandations de sécurité. Celles-ci se basent sur les étapes clés d’un système d’IA : l’apprentissage, la mise en production et la production.

L’importance de la protection des données est particulièrement mise en avant dans la présentation de l’architecture générique de ces systèmes. Une carte technique des IA génératives détaille ainsi leurs composants et leurs interactions avec l’environnement. Elle souligne également le rôle de l’orchestrateur, qui pilote la manière dont les requêtes sont traitées par le système en production.

Ce guide permet de couvrir trois grands risques détaillés dans le document :

  • Attaques par manipulation de l’IA via des requêtes malveillantes
  • Attaques par infection via la corruption de ses données d’entrainement ou l’insertion d’une porte dérobée
  • Attaques par exfiltration pour dérober des données (entrainement, utilisateurs ou paramètres du modèle)

Enfin, des recommandations spécifiques à la génération de code source assistée par l’IA, aux services d’IA grand public exposés sur Internet et à l’utilisation de solutions d’IA générative tierces complètent le guide.

Pour conclure, ce document constitue un excellent point de départ pour Advens. Il est aussi une lecture indispensable pour tous les acteurs impliqués. Ces derniers doivent intégrer la sécurité dans leurs projets et systèmes d’IA générative.

Livre blanc IA