ChatGPT : l’IA devient folle et vous répond n’importe quoi ? Vous n’êtes pas seul

Le chatbot d’OpenAI, ChatGPT, traverse visiblement une mauvaise passe. De nombreux utilisateurs signalent que l’IA écrit des phrases qui n’ont aucun sens, aussi bien en anglais qu’en français ou en espagnol.

Homme confus devant un odinateur
Crédits : 123RF

Il est tout de même bien pratique ce chatbot d’OpenAI. ChatGPT peut rapidement répondre à la plupart de vos questions en parcourant l’immense base de données qu’est Internet, vous épargnant parfois de longues recherches. L’intelligence artificielle peut même vous aider à planifier un voyage ou résumer vos réunions sans vous demander comment à chaque fois grâce à sa mémoire. Mais comme le mentionne le service lui-même en bas de page : “ChatGPT peut faire des erreurs. Pensez à vérifier les informations importantes“. Sauf que là, toutes les vérifications du monde ne permettront pas de comprendre ce que l’IA raconte.

Quand un utilisateur demande à ChatGPT ce qu’est un ordinateur, il s’attend sûrement à une autre réponse que “il le fait comme le bon travail d’une toile d’art pour le pays, une souris de science, un dessin facile de quelques tristes, et enfin, la maison mondiale de l’art, juste en un seul travail dans le reste total“. L’internaute poste son histoire sur le réseau social Reddit en précisant que ce n’est qu’un extrait de 9 paragraphes du même acabit. Rapidement, on se rend compte que les témoignages ce de genre pullulent depuis quelques heures.

ChatGPT a un souci, l’IA donne des réponses qui n’ont aucun sens

Il ne s’agit pas d’un phénomène d’hallucination de l’IA comme celui la pousse à citer Star Wars ou Matrix. On parle bien de réponses sans queue ni tête à des questions le plus souvent simple. L’anglais n’est pas la seule langue affectée puisqu’un utilisateur parlant espagnol a connu les mêmes déboires. Sa requête était plus philosophique : “si le monde avait été créé il y a 5 secondes, comment pourrions-nous le réaliser ?“. ChatGPT s’est alors mis à écrire des suites de mots en anglais, japonais et coréen, avant de d’enchaîner avec des mots donc chaque lettre est séparée par une virgule. C’en est presque effrayant.

L’expert en SEO Sylvain Peyronnet a vécu une mésaventure similaire en posant une question en français. L’IA s’est mis à lui dire que “la subsomption ou l’écart périodique le plus délicieux – mais axialément débilitant aussi de millisecondes ou discrets dans l’éphèbe du quantitatif – est le traître“. De son côté, OpenAI signale avoir remarqué cette explosion de réponses extrêmement étranges et identifié le souci, sans plus de précision. Un correctif est en cours de déploiement au moment de publier cet article. Espérons que ChatGPT retrouvera ses esprits après ça.

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading