Voleurs d'informations captent des identifiants ChatGPT sur 225 000 appareils
Au cours de l’année écoulée, au moins 225 000 ensembles d’identifiants OpenAI ont été découverts à la vente sur le dark web, une révélation alarmante qui soulève de graves préoccupations en matière de sécurité des données. Ces identifiants pourraient être exploités pour accéder aux informations sensibles échangées via ChatGPT, un bot de conversation développé par OpenAI.
Des chercheurs du Group-IB ont identifié des comptes ChatGPT compromis par des logiciels malveillants voleurs d’informations, tels que LummaC2, Raccoon et RedLine, entre janvier et octobre 2023. Leur rapport met en lumière une augmentation de 36 % des fuites d’informations d’identification liées à ChatGPT au cours de cette période, avec plus de 130 000 hôtes infectés découverts entre juin et octobre 2023 seulement.
Le changement de tendance vers une prévalence accrue de vols d’identifiants par LummaC2 s’avère particulièrement notable, remplaçant ainsi Raccoon en tant que source la plus courante de journaux d’infostealer contenant des informations d’identification ChatGPT. Cette évolution soulève des préoccupations quant à la sécurité des données sensibles stockées et échangées via ChatGPT, ainsi qu’à la vulnérabilité croissante des comptes utilisateurs.
Les experts mettent en garde contre les risques associés à l’utilisation de l’IA générative, notamment la possibilité pour les employés d’entreprise de coller des données sensibles dans des applications telles que ChatGPT. Des études récentes révèlent que de nombreux employés ont en effet partagé des informations confidentielles via ChatGPT, exposant ainsi des données internes, du code source et des informations personnelles identifiables.
Parallèlement, les tentatives des employés d’accéder et de télécharger des fichiers sur des sites de génération AI ont également augmenté de manière significative, soulignant la nécessité d’une approche à plusieurs niveaux pour prévenir les fuites de données sensibles. Les recommandations incluent la mise en œuvre de contrôles de copier-coller pour limiter la saisie de données sensibles, ainsi que l’adoption de contrôles de sécurité au niveau du groupe gen AI pour empêcher les fuites d’informations à grande échelle.
En conclusion, ces récentes révélations soulignent l’urgence pour les entreprises d’adopter des mesures proactives pour protéger leurs données sensibles contre les menaces croissantes de vol et de fuite d’informations. Une sensibilisation accrue aux risques associés à l’utilisation de l’IA générative, ainsi que la mise en œuvre de contrôles de sécurité robustes, sont essentielles pour garantir la confidentialité et l’intégrité des données dans un paysage numérique en constante évolution.
La cybercriminalité prospère dans les recoins obscurs du dark web, où les infostealers exploitent les vulnérabilités de la sécurité informatique pour compromettre les identifiants et les données sensibles, y compris ceux des entreprises utilisant ChatGPT, mettant en évidence l’importance de la prévention, de la sensibilisation et des contrôles de sécurité pour assurer une protection en ligne efficace contre les cybermenaces et les fuites d’informations.
Sécurité des données, ChatGPT, vulnérabilités, infostealers, dark web, Group-IB, cybercriminalité, cybermenaces, logiciels malveillants, compromission, identifiants, sécurité informatique, protection des données, IA générative, fuites d’informations, prévention, sensibilisation, contrôles de sécurité, risques, confidentialité, cyberhygiène, cyberattaques, technologie, entreprises, protection en ligne