La montée des agents LLM dans l’exploitation des failles de sécurité

Une récente étude menée par des chercheurs de l’Université de l’Illinois Urbana-Champaign a mis en lumière le potentiel inquiétant des grands modèles de langage comme GPT-4 d’OpenAI. Ces agents d’intelligence artificielle, si on les nourrit d’informations spécifiques comme les avis CVE (Common Vulnerabilities and Exposures), peuvent identifier et exploiter des vulnérabilités de sécurité dans des systèmes réels.

Imaginez un verrouilleur capable d’apprendre à ouvrir n’importe quelle serrure juste en étudiant sa conception. C’est à peu près ce que GPT-4 peut faire avec les systèmes informatiques lorsqu’il analyse un avis CVE décrivant une faille.

Les chercheurs ont testé GPT-4 en lui fournissant les détails de 15 vulnérabilités d’un jour (zero-day), y compris des failles jugées critiques. Le résultat ? GPT-4 a réussi à exploiter 87 % de ces vulnérabilités, un taux étonnamment élevé par rapport à d’autres modèles comme GPT-3.5 et des outils open-source comme ZAP et Metasploit, qui n’ont montré aucune capacité d’exploitation dans le même test.

Implications et mesures de précaution

Cette capacité des LLM à exploiter des vulnérabilités soulève des questions cruciales sur leur utilisation et leur administration. Le bas coût estimé à 8,80 dollars par exploit rend cette technique potentiellement attractive pour les cybercriminels recherchant un rendement élevé pour un investissement minimal.

La nécessité devient alors évidente pour les fournisseurs et les utilisateurs de systèmes informatiques de renforcer leur posture de sécurité. Cela peut inclure le suivi régulier des avis CVE, la mise à jour des systèmes pour les protéger contre les vulnérabilités connues, et le développement de stratégies proactives pour défendre contre les menaces IA.

En conclusion, alors que les LLM offrent des avancées significatives dans de nombreux domaines, leur potentiel en tant qu’outil d’exploitation de failles de sécurité doit être soigneusement géré. La protection contre de telles menaces nécessite une collaboration étroite entre les chercheurs en IA, les professionnels de la cybersécurité et les utilisateurs de systèmes informatiques pour minimiser les risques associés à ces technologies puissantes.