ChatGPT est capable de créer des malwares parfaitement indétectables, ça fait froid dans le dos

Plusieurs experts en cybersécurité ont découvert qu’il est tout à fait possible de contourner les restrictions de ChatGPT afin d’utiliser l’IA pour générer des malwares particulièrement dangereux. En effet, avec un peu de maîtrise, le chatbot peut rendre ces logiciels malveillants parfaitement indétectables.

chatGPT depart ue
Crédits : 123RF

Si ChatGPT fascine autant les internautes, c’est parce qu’il est aussi impressionnant qu’inquiétant. La crainte principale pour les travailleurs est bien entendu de voir leur emploi remplacé par l’IA, un processus qui a déjà commencé dans certains secteurs. De leur côté, les experts en cybersécurité alertent plutôt sur les risques de détournement par les pirates, qui n’ont pas tardé à publier de fausses copies de l’application truffées de malwares.

Mais jusqu’à maintenant, peu d’échos ont mis en garde contre les risques de création de malwares via ChatGPT. Il faut dire qu’OpenAI a assuré ses arrières, en intégrant des restrictions de sécurité à son chatbot empêchant tout utilisateur malveillant de générer du code malicieux à l’aide de ce dernier. Mais visiblement, cela n’a pas suffi. En effet, plusieurs experts en cybersécurité ont démontré qu’il est possible de faire tomber ces restrictions.

Sur le même sujet — ChatGPT : un avocat invente de fausses affaires grâce à l’IA pour l’aider dans son travail

Ça y est, ChatGPT peut générer des malwares redoutables

Pire encore, les malwares générés par ChatGPT peuvent passer totalement inaperçus sur les machines infectées. Pour ce faire, les experts en cybersécurité sont parvenus à générer ce que l’on appelle du code polymorphique, à savoir un programme capable de muter afin de constamment rester sous le radar. « Grâce à ces nouvelles techniques, un pirate peut combiner une série de comportements généralement très détectables dans une combinaison inhabituelle et échapper à la détection », explique Jeff Sims, ingénieur sécurité chez HYAS Infosec.

CyberArk, de son côté, a découvert qu’il est possible d’utiliser ChatGPT pour injecter du code à un processus déjà activé, ce qui permet là encore de rester indétectable auprès des principaux systèmes de sécurité. Pour l’heure, toutes ces applications ne sont que l’ordre de la théorie. Mais maintenant que la théorie a été prouvée, ce n’est probablement qu’une question de temps avant que les pirates ne passent à la pratique.

Source : Tom’s Hardware

Leave a Reply

Your email address will not be published. Required fields are marked *