Recommandations de sécurité pour un système d’IA générative

Le document vise à sensibiliser les administrations et entreprises aux risques liés à l’IA générative ainsi qu’à promouvoir les bonnes pratiques dans la mise en œuvre de ce type de système.

Publié le 29 Avril 2024 Mis à jour le 29 Avril 2024
Recommandations de sécurité pour un système d'IA générative
Recommandations de sécurité pour un système d'IA générative

Le récent engouement pour les produits et services d’Intelligence Artificielle (IA) générative, dont certains sont rendus facilement accessibles au grand public, a entraîné des réflexions au sein des organisations publiques et privées afin d’étudier les éventuels gains de productivité qui pourraient en découler.

Si cette technologie offre de nouvelles perspectives, il convient d’adopter une posture de prudence lors de son déploiement et de son intégration dans un système d’information existant.

Le guide de recommandations de sécurité pour un système d’IA générative de l’ANSSI s’intéresse à la sécurisation d’une architecture de système d’IA générative. Il vise à sensibiliser les administrations et entreprises aux risques liés à l’IA générative ainsi qu’à promouvoir les bonnes pratiques à mettre en œuvre depuis la phase de conception et d’entrainement d’un modèle d’IA jusqu’à la phase de déploiement et d’utilisation en production.

Les problématiques de sécurité liées à la qualité des données et à la performance d’un modèle d’IA d’un point de vue métier ne sont pas traitées dans ce document, de même que les enjeux comme l’éthique, la vie privée ou encore la protection des données personnelles.

L’IA générative :

Il s’agit de modèles d’IA entraînés à générer du contenu (texte, images, vidéos) à partir d’un corpus spécifique de données d’entraînement.

Cela comprend les Large Language Model (LLM). Les LLM permettent de générer une réponse à une question formulée en langage naturel à partir d’un modèle entraîné sur des volumes de données très importants.