Cyberattaque

Des attaquants exploitent déjà ChatGPT pour écrire du code malveillant

Par Philippe Ternision , le 10 janvier 2023 , mis à jour le 10 janvier 2023 - 6 minutes de lecture
hacker russie
5/5 - (1 vote)

De nombreux experts en sécurité ont averti que ce n’est qu’une question de temps avant que les cybercriminels ne commencent à utiliser ChatGPT pour écrire des logiciels malveillants et faciliter d’autres activités malveillantes depuis qu’OpenAI a dévoilé le chatbot d’IA fin novembre. Même quelques semaines plus tard, il semble que le moment soit venu.

 En réalité, les experts de Check Point Research (CPR) ont découvert au moins trois cas où des pirates hostiles ont utilisé les capacités d’IA de ChatGPT à des fins de démonstration dans des forums non officiels.

ChatGPT est un prototype de chatbot doté d’une capacité d’IA, créé pour aider dans divers cas d’utilisation, tels que le développement et le débogage de code. L’un de ses principaux atouts est que les utilisateurs peuvent converser avec le chatbot et recevoir de l’aide pour tout, de la création de logiciels à la compréhension de concepts difficiles, en passant par la rédaction d’essais et d’e-mails, l’amélioration du service à la clientèle et le test de divers scénarios commerciaux ou de marché.

Après vous avoir fait découvrir 10 trucs cool avec ChatGPT , ici on va voir qu’il peut aussi être utilisé à des fins plus sinistres.

De la création de logiciels malveillants à la création d’un marché sur le Dark Web

Dans un cas, un créateur de logiciels malveillants a révélé ses expériences avec ChatGPT pour voir s’il pouvait reproduire des souches et des techniques de logiciels malveillants bien connues sur un forum fréquenté par d’autres cybercriminels.

Un voleur d’informations basé sur Python qu’il a créé à l’aide de ChatGPT et dont il a fourni le code peut rechercher, copier et exfiltrer 12 types de fichiers courants, notamment des documents Office, des PDF et des photos, à partir d’un PC infecté. Ceci n’est qu’un exemple de son travail. Le même créateur de logiciels malveillants a également montré comment il avait écrit du code Java à l’aide de ChatGPT pour télécharger le client SSH et telnet PuTTY et l’exécuter secrètement sur un appareil via PowerShell.

Le 21 décembre, un acteur de la menace connu sous le nom de USDoD a publié un script Python permettant de crypter et de décrypter des données à l’aide des algorithmes de cryptage Blowfish et Twofish qu’il a créés à l’aide du chatbot. Bien que le code puisse être utilisé pour des intentions tout à fait bonnes, les chercheurs du CPR ont découvert qu’un acteur de la menace pouvait facilement le modifier de manière à ce qu’il s’exécute sur un appareil sans aucune implication humaine, le transformant au passage en ransomware. Contrairement au voleur d’informations, USDoD semblait posséder très peu de savoir-faire technique et a même insisté sur le fait que le script Python qu’il a produit avec ChatGPT était le premier script qu’il avait jamais écrit, selon le CPR.

Dans le troisième cas, les chercheurs du CPR ont découvert un cybercriminel expliquant comment il avait utilisé ChatGPT pour développer un marché entièrement automatisé sur le Dark Web pour le commerce d’outils de logiciels malveillants, de drogues, de munitions et de plusieurs autres choses illégales.

Le fournisseur de sécurité a déclaré que le cybercriminel a téléchargé un morceau de code qui exploite l’API d’un tiers pour obtenir les prix les plus récents des crypto-monnaies (Monero, Bitcoin et [Ethereum]) dans le cadre du système de paiement du marché du Dark Web afin de démontrer comment utiliser ChatGPT pour ces objectifs.

Aucune expérience requise

Depuis qu’OpenAI a publié l’outil d’IA en novembre, de nombreux rapports ont fait état d’une mauvaise utilisation de ChatGPT par des acteurs de la menace. Selon de nombreux chercheurs en sécurité, le chatbot abaisse radicalement la barre pour la création de logiciels malveillants.

Le responsable du groupe de renseignement sur les menaces chez Check Point, Sergey Shykevich, réaffirme que ChatGPT permet aux acteurs malveillants de créer des logiciels malveillants sans aucune connaissance en codage : “Il suffit d’être conscient de la fonctionnalité que toute application, même un malware, devrait avoir. Pour vous, ChatGTP écrira le code nécessaire pour réaliser la fonctionnalité nécessaire.”

À la lumière de ces éléments, Shykevich affirme que “la préoccupation à court terme concerne absolument le fait que ChatGPT permette à des escrocs peu qualifiés de construire des logiciels malveillants.” “Sur le long terme, je prévois que les pirates plus expérimentés utiliseront ChatGPT pour accroître l’efficacité de leurs opérations ou combler les failles qu’ils pourraient avoir.”

Brad Hong, responsable du succès client chez Horizon3ai, poursuit : “Du point de vue de l’attaquant, les systèmes d’IA générant du code permettent aux acteurs malveillants de surmonter facilement tout manque de compétences qu’ils pourraient avoir en agissant comme une sorte de traducteur entre les langues.” Selon Hong, ces technologies évitent aux attaquants d’avoir à parcourir des sites Web de développeurs tels que Stack Overflow et Git, en leur offrant un moyen à la demande de créer des modèles de code adaptés à leurs objectifs.

Check Point, ainsi que d’autres fournisseurs de sécurité, ont montré comment les adversaires peuvent utiliser le chatbot dans des opérations néfastes avant même que l’on découvre que les acteurs de la menace abusent de ChatGPT. Dans un billet de blog publié le 19 décembre, le fournisseur de sécurité a expliqué comment ses chercheurs ont généré un e-mail de phishing très convaincant en demandant à ChatGPT d’en construire un qui semble provenir d’un service d’hébergement Web fictif. Les chercheurs ont également montré comment ils ont utilisé ChatGPT pour générer du code VBS afin de télécharger un exécutable à partir d’une URL distante qu’ils pouvaient insérer dans un classeur Excel.

L’objectif de l’exercice était de montrer comment les attaquants peuvent utiliser ChatGPT et d’autres modèles d’intelligence artificielle pour établir une chaîne d’infection complète, depuis l’e-mail initial de spear-phishing jusqu’à l’exécution d’un reverse shell sur les ordinateurs vulnérables.

Rendre la tâche plus difficile aux cybercriminels

Afin d’empêcher l’utilisation abusive de leurs technologies, OpenAI et d’autres créateurs d’outils similaires ont mis en place des filtres et des restrictions et les améliorent en permanence. En outre, les outils d’IA sont toujours défectueux et font parfois ce que plusieurs chercheurs appellent des erreurs flagrantes, ce qui pourrait entraver certaines intentions malveillantes, du moins pour le moment. Cependant, nombreux sont ceux qui prévoient que ces technologies auront un potentiel d’abus important à long terme.

Les développeurs devront former et améliorer leurs moteurs d’IA pour qu’ils puissent reconnaître les demandes susceptibles d’être utilisées à des fins malveillantes, afin de rendre plus difficile l’utilisation abusive de la technologie par les criminels, ajoute M. Shykevich. L’alternative, selon lui, est d’imposer des conditions d’authentification et d’autorisation avant d’utiliser le moteur OpenAI. Selon lui, un dispositif ressemblant à celui que les institutions financières et les systèmes de paiement en ligne utilisent déjà serait suffisant.

 

Philippe Ternision

Philippe Ternision

Administrateur réseau dans un grand groupe, je partage mes connaissances sur Hfrance pour aider mes confrères et mes consoeurs.