Les risques de l'IA exposés au grand jour

Toute l’actu cyber de la semaine, présentée par un expert. Cette semaine nous revenons notamment sur le benchmark des IA conversationnelles détourné de son usage, l’IA vulnérable au Man In The Middle ainsi qu’au développement sécurisé du National Cyber Security Centre.

Le benchmark sur les risques des IA conversationnelles détourné de son usage ?

Diverses entités américaines telles que le Centre pour la Sécurité de l’IA (Center for AI Safety) et de nombreuses universités se sont réunies pour réaliser un état de l’art des connaissances dangereuses des LLM. Le WMDP Benchmark est constitué de 4 157 questions à choix multiples qui couvrent les connaissances présentant un risque sur un plan biologique, chimique ou cybernétique pouvant être expliquées par les LLM à un utilisateur. Néanmoins, cet état de l’art peut être détourné de son usage initial : celui-ci représente, malgré lui, une banque de données des attaques pouvant être expliquées par l’IA.

Pourquoi c'est important ?

Plus de la moitié des questions évoquées dans ce benchmark concernent la cybersécurité. Cela illustre l’un des risques principaux causés par les LLM sur la sécurité de l’information : rendre plus accessible la réalisation d’attaques cyber. Pour atténuer ce risque, les chercheurs ont développé CUT, une méthode optimisée d’oubli. L’oubli machine, ou “machine unlearning”, est un concept qui vise à supprimer les connaissances des modèles pouvant engendrer des risques. C’est un défi complexe car l’information dans un modèle d’apprentissage automatique n’est pas stockée de manière localisée ou cloisonnée. La méthode CUT permet donc de supprimer les connaissances dangereuses des LLM tout en préservant les capacités générales du modèle.

Les IA conversationnelles vulnérables au Man In The Middle

Une faille de sécurité majeure dans les services d’IA conversationnelles a été révélée, permettant de passer outre le chiffrement des réponses des LLM avec une précision surprenante. Cette technique exploite un canal secondaire présent dans tous les principaux assistants IA, à l’exception de Google Gemini.

Pourquoi c'est important ?

En termes de cybersécurité, cela signifie que toute personne se positionnant en « homme du milieu » (MITM), c’est-à-dire une personne qui peut surveiller les paquets de données échangés entre un assistant IA et l’utilisateur, peut déduire le sujet spécifique de plus de la moitié de toutes les réponses capturées, généralement avec une grande précision lexicale. L’attaque peut également permettre de déduire les réponses jusqu’au mot près dans un tiers des cas. Yisroel Mirsky, chef du laboratoire de recherche sur l’IA offensive à l’Université Ben-Gurion en Israël, a déclaré : "Actuellement, n’importe qui peut lire les chats privés envoyés depuis ChatGPT et d’autres services". Cela inclut les acteurs malveillants sur le même Wi-Fi ou LAN qu’un client (par exemple, le même café), ou même un acteur malveillant sur Internet - toute personne qui peut observer le trafic. En définitive, cette découverte souligne l’importance de renforcer les mesures de sécurité pour les LLM, car le chiffrement mis en place aujourd’hui ne suffit pas à protéger les requêtes contre les attaques les plus sophistiquées.

IA : le développement sécurisé du National Cyber Security Centre

Kubernetes, plate-forme permettant d'automatiser le déploiement, la montée en charge et la mise en œuvre de conteneurs applicatifs sur des grappes de serveurs, célèbre son dixième anniversaire cette année. Alors que la Kubecon 2024 se déroule actuellement à Paris, l’IA s’est retrouvée très rapidement au coeur de toutes les discussions. La CNCF (cloud native computing foundation), organisatrice de l’évènement, a mis l’accent dessus dès l’ouverture de la conférence. En effet, la CNCF vise à standardiser l’IA pour en garantir l’interopérabilité et la sécurité, permettant également d’en améliorer la gestion des coûts, les métriques, les questions éthiques...

Pourquoi c'est important ?

La standardisation de Kubernetes peut permettre de renforcer la sécurité des déploiements IA au travers de différents axes : (Consolidation des Pratiques) En adoptant un standard commun tel que Kubernetes, les entreprises et les équipes de développement peuvent suivre des pratiques cohérentes en matière de sécurité. Cela réduit les risques liés à des configurations incorrectes ou à des vulnérabilités spécifiques à une plateforme. (Meilleure Gestion des Vulnérabilités) Grâce à la standardisation, les équipes de sécurité peuvent se concentrer sur un ensemble de règles et de bonnes pratiques spécifiques à Kubernetes. Cela facilite la détection et la correction des vulnérabilités potentielles dans les déploiements. (Contrôle d’Accès et Authentification) Kubernetes offre des mécanismes robustes pour gérer les mécanismes d’authentification. En standardisant l’utilisation de ces fonctionnalités, les entreprises peuvent renforcer la sécurité des accès à leurs clusters d’IA. (Gestion des Secrets et des Configurations) Kubernetes permet de stocker les secrets et les configurations sensibles de manière sécurisée. Une standardisation garantirait ainsi que ces informations sont gérées de manière uniforme, suivant un référentiel connu et éprouvé, réduisant ainsi les risques de fuites. (Surveillance et Audit) Les outils de surveillance et d’audit intégrés à Kubernetes permettent de détecter les activités suspectes à l’aide de règles adaptées et évolutives. En définitive, alors que la standardisation des systèmes d’information suivant des normes et règlements permet d’améliorer la sécurité informatique, l’intelligence artificielle ne fait pas exception. Une généralisation de Kubernetes peut donc permettre de consolider cette technologie en plein essor.