Contrairement à ce que pensent de nombreux utilisateurs, les différents assistants et plateformes liés à l’intelligence artificielle ne sont pas parfaits. Certains, aussi populaires que ChatGPT d’OpenAI, commettent de graves erreurs qui peuvent nous mettre dans une impasse.
Nous faisons ici référence aux soi-disant hallucinations de l’IA, qui sont en fait un échec assez courant chez ces chatbots. Lorsque, par exemple, ChatGPT ou d’autres modèles d’IA délivrent des informations erronées, c’est ce qu’on appelle une hallucination. L'IA peut commettre ces erreurs que nous mentionnons dans les réponses pour diverses raisons. Il s’agit parfois d’une légère déviation ou d’un lapsus en apparence inoffensif, mais on peut aussi se heurter à une réponse diffamatoire et inventée.
Dans tous les cas, c'est quelque chose qui apparaîtra inévitablement si nous interagissons avec des plateformes comme celle mentionnée. ChatGPT ou ses concurrents, pendant un temps suffisant. Si nous utilisons les réponses obtenues ici pour le travail ou les études, nous pouvons parfois avoir des ennuis si nous faisons confiance à 100% aux réponses fournies par le IA ouverte.
À ce stade, nous pouvons dire que pour essayer d’éviter, autant que possible, d’avoir des problèmes avec l’IA, la meilleure chose qui puisse arriver est de détecter ces erreurs immédiatement. En gros, ce que nous voulons vous dire, c'est que la clé est d'être conscient qu'une hallucination peut apparaître à tout moment. Il est donc de plus en plus important de connaître les indices qui indiquent que nous sommes confrontés à l’un de ces cas.
Comment savoir si la réponse de ChatGPT est une hallucination
C'est pour tout cela que dans ces mêmes lignes nous allons vous montrer quelques-uns des indicateurs les plus courants qui nous permettront de détecter que l'IA de ChatGPT hallucine ou fait une erreur à ce moment-là.
Des réponses concrètes sans sources vérifiables. L’un des aspects les plus ennuyeux des hallucinations de l’IA est qu’elles incluent souvent des détails apparemment spécifiques, mais sans mentionner les sources. Nous parlons de dates, de noms et d'autres détails qui donnent l'impression que cela semble crédible, mais non prouvé. Nous pouvons voir des fragments d’informations réelles sur une personne, mélangés à un récit inventé. Ici, il est crucial de vérifier tous les détails qui pourraient nous poser des problèmes si les sources ne sont pas indiquées.
Trop de confiance dans la réponse. Il faut également se méfier si l’IA répond sur un ton trop confiant. Cela peut être le signe d’une hallucination de la part de l’IA. ChatGPT et d'autres modèles similaires sont conçus pour présenter les réponses sur un ton fluide et autoritaire. Cette confiance peut donner l’impression que la désinformation est fiable, même si elle est infondée. Si vous répondez par une déclaration catégorique sur des sujets comme la science ou la médecine, par exemple, nous devrions vérifier les faits.
Devis impossibles à vérifier. Les citations et références sont un excellent moyen de confirmer la véracité de ce que dit ChatGPT. Cependant, l’IA nous fournit parfois des références apparemment légitimes, mais les sources n’existent pas. Ce type d’hallucination est particulièrement problématique dans les contextes académiques, c’est pourquoi nous devons écarter ces informations reçues.
Questions complémentaires contradictoires. Si ChatGPT se contredit, quelque chose ne va pas. C'est pourquoi les questions de suivi sont si utiles. L’IA générative n’ayant pas de base de données intégrée, elle peut se contredire en fournissant des réponses plus détaillées. Cela se manifeste généralement lorsqu'une question de suivi est posée et se concentre sur une déclaration précédente, car nous voyons qu'elle est contradictoire.
| Panneau d'avertissement | Description du problème | Action immédiate recommandée |
|---|---|---|
| Données sans sources | L’IA fournit des dates, des noms ou des statistiques très précis mais n’indique pas d’où elle les a obtenus. | Demandez directement : pouvez-vous fournir la source de ces informations ? Vérifiez les données dans un moteur de recherche indépendant. |
| Excès de confiance | La réponse est catégorique et faisant autorité, notamment sur des sujets complexes ou subjectifs, sans admettre de nuances. | Reformulez la question pour forcer une perspective différente : quels sont les arguments contre ce que vous venez de dire ? |
| citations inventées | Mentionnez des études, des articles ou des livres qui semblent légitimes mais qui ne se trouvent pas dans les bases de données universitaires ou dans les moteurs de recherche. | Copiez le titre exact de la citation et recherchez-le sur Google Scholar ou sur le site Web de l'éditeur présumé. Ne lui faites pas confiance s'il n'existe pas. |
| Contradictions | Lorsqu'on demande plus de détails sur une déclaration précédente, la nouvelle réponse contredit ou modifie substantiellement l'originale. | Soulignez la contradiction : avant vous disiez X, mais maintenant vous dites Y. Quelle est l’information correcte ? |