Spear-phishing, malwares : OpenAI découvre des cybermenaces utilisant ChatGPT
OpenAI perturbe 20 cyberopérations : L’utilisation de ChatGPT dans la cybercriminalité en question
Dans un récent rapport publié mercredi, OpenAI a révélé avoir perturbé plus de 20 opérations adverses qui exploitaient son modèle de langage, ChatGPT, dans le cadre d’activités malveillantes. Ces groupes cybercriminels, parmi lesquels le tristement célèbre CyberAv3ngers, utilisaient ChatGPT pour une série de tâches, notamment le débogage de logiciels malveillants, la reconnaissance de cibles, la recherche de vulnérabilités et même la génération de contenu destiné à des campagnes d’influence. Ces découvertes mettent en lumière l’exploitation de l’intelligence artificielle dans le domaine de la cybersécurité.
Utilisation malveillante de ChatGPT
ChatGPT, conçu à l’origine pour automatiser des tâches telles que la rédaction, l’assistance à la programmation et bien plus encore, s’est retrouvé entre les mains de cybercriminels. Le rapport détaille comment ces acteurs ont utilisé la plateforme pour déboguer des logiciels malveillants, trouver des vulnérabilités dans des infrastructures critiques, et même préparer des campagnes de désinformation. Ce constat soulève des questions sur les risques potentiels liés aux outils de GenAI (intelligence artificielle générative) dans des contextes adverses.
OpenAI indique toutefois que l’utilisation de ChatGPT par ces cybercriminels n’a pas révolutionné leurs capacités. Bien que certains groupes aient réussi à exploiter certaines fonctionnalités, la plupart des tâches qu’ils ont accomplies via ChatGPT auraient pu être réalisées avec des outils existants. Selon le rapport, les capacités de ChatGPT dans ces opérations étaient limitées et n’ont pas permis d’améliorer de manière significative leurs cyberattaques.
CyberAv3ngers et les attaques ICS
Le groupe CyberAv3ngers, un collectif soupçonné d’être affilié au Corps des gardiens de la révolution islamique iranienne (IRGC), est particulièrement mis en avant dans ce rapport. Ce groupe est connu pour cibler des infrastructures critiques, notamment des installations de traitement de l’eau, des installations énergétiques et des usines, particulièrement aux États-Unis, en Israël et en Europe. CyberAv3ngers aurait utilisé ChatGPT pour rechercher des informations spécifiques sur les systèmes de contrôle industriel (ICS), des éléments clés dans les infrastructures critiques.
Par exemple, CyberAv3ngers a cherché à exploiter des informations d’identification par défaut pour des appareils tels que Tridium Niagara et Hirschmann, des systèmes largement utilisés dans les installations industrielles. Ils ont également tenté de dénicher des vulnérabilités dans des logiciels comme CrushFTP et Asterisk Voice over IP, en plus de chercher à créer des clients Modbus TCP/IP pour s’introduire dans des réseaux industriels.
Cependant, malgré ces efforts, OpenAI a supprimé les comptes CyberAv3ngers, empêchant ainsi ce groupe de poursuivre ses activités via ChatGPT. Selon le rapport, les interactions de ce groupe avec la plateforme n’ont fourni que des résultats limités, suggérant que les cybercriminels auraient probablement atteint les mêmes objectifs sans utiliser ChatGPT.
Campagne de spear-phishing contre OpenAI
Outre les attaques visant des infrastructures critiques, OpenAI a révélé une campagne de spear-phishing qui ciblait ses propres employés. Menée par un groupe malveillant basé en Chine, connu sous le nom de SweetSpecter, cette campagne visait à compromettre les comptes personnels et professionnels des employés d’OpenAI en se faisant passer pour des utilisateurs cherchant de l’aide concernant des erreurs sur ChatGPT. Les e-mails contenaient des pièces jointes infectées, déclenchant l’installation d’un cheval de Troie d’accès à distance (RAT) nommé SugarGh0st.
Les systèmes de sécurité d’OpenAI ont cependant réussi à bloquer ces attaques avant que les e-mails malveillants n’atteignent les boîtes de réception des employés. SweetSpecter avait également utilisé ChatGPT pour rechercher des vulnérabilités dans des systèmes tels que Log4j, montrer des cibles potentielles et améliorer ses méthodes d’ingénierie sociale.
Malware Android développé avec l’aide de ChatGPT
Dans une autre cyberopération dévoilée dans le rapport, STORM-0817, un acteur basé en Iran, a utilisé ChatGPT pour développer un malware Android inédit. En soumettant des extraits de code à ChatGPT pour assistance, STORM-0817 travaillait à la création d’un logiciel de surveillance capable d’extraire des données sensibles telles que les contacts, les journaux d’appels, les informations de localisation et les captures d’écran depuis les appareils infectés.
Ce malware, bien que non encore déployé dans la nature, représentait une tentative claire d’exploitation des capacités de ChatGPT dans le processus de développement malveillant. Le rapport souligne également que l’acteur cherchait à récupérer des informations personnelles sur les abonnés Instagram d’un journaliste critique du gouvernement iranien.
Campagnes d’influence électorale alimentées par l’IA
Un autre aspect important du rapport concerne les tentatives de campagnes d’influence électorale utilisant ChatGPT. Ces campagnes ciblaient notamment les élections aux États-Unis, au Rwanda et au sein de l’Union européenne. Bien que certaines aient attiré l’attention, OpenAI note que leur impact global a été limité.
Un réseau américain, surnommé A2Z, utilisait ChatGPT pour générer du contenu politique pro-gouvernement azerbaïdjanais, diffusé via des comptes sur X (anciennement Twitter) et Facebook. Après la fermeture des comptes associés à A2Z, les activités sur les réseaux sociaux se sont arrêtées, prouvant l’efficacité des mesures prises par OpenAI.
Une autre campagne, menée par un groupe russe sous le nom de Stop News, a largement utilisé l’outil de génération d’images DALL-E d’OpenAI pour créer des images promotionnelles pro-russes. Cependant, ces campagnes n’ont pas réussi à générer beaucoup d’engagement sur les plateformes sociales.
Un avenir de cybersécurité surveillé de près
Dans ses conclusions, OpenAI affirme que bien que ChatGPT ait été utilisé par certains acteurs malveillants, ses capacités n’offrent que des avantages limités. Ce rapport met en lumière l’importance croissante de surveiller les utilisations malveillantes des outils d’IA, tout en soulignant que de nombreuses attaques peuvent toujours être menées sans recourir à l’intelligence artificielle.
L’impact potentiel de ChatGPT dans le domaine de la cybersécurité reste un sujet à surveiller de près, car les cybercriminels continueront probablement d’expérimenter ces nouveaux outils dans leurs futures opérations. OpenAI s’engage à poursuivre ses efforts pour prévenir l’exploitation abusive de ses technologies tout en améliorant la sécurité des utilisateurs légitimes.