Pour des millions d’utilisateurs à travers le monde, effectuer toutes sortes de requêtes ou même discuter avec différentes plateformes d’IA devient monnaie courante. Mais de nombreuses entreprises responsables de ces chatbots sont confrontées à un sérieux problème.
Et ils se rendent compte que ces agents intelligents, de plus en plus répandus et utilisés, ont tendance, plus souvent que souhaité, à mentir aux humains. Qui pourrait être considérée comme l'une des entreprises leaders dans ce secteur technologique, OpenAIen est pleinement conscient et essaie d’en découvrir plus en profondeur les raisons.
Ce n’est pas en vain que nous parlons de la société proposée par le populaire ChatGPT que la plupart d’entre vous ont utilisé à plusieurs reprises. Eh bien, pour découvrir les raisons pour lesquelles l’intelligence artificielle nous ment parfois, elle teste une nouvelle fonctionnalité intégrée à sa plateforme. Au départ, c'est un projet qu'ils ont appelé Confessions et se concentre sur la tentative de comprendre cet inconvénient important en profondeur.
Son fonctionnement est simple, fondamentalement la Confession est une seconde réponse offerte par la personne elle-même. chatbot qui est généré après avoir terminé une certaine tâche ou requête. Dans cette deuxième réponse, l’entreprise oblige l’IA à évaluer son propre comportement afin que, si nécessaire, elle admette qu’elle a agi de manière inappropriée. proposer de fausses réponses.
Tout d'abord, il faut garder à l'esprit que cette nouvelle fonctionnalité que OpenAI teste ne tente pas résoudre ce problèmemais pour trouver la raison de son existence.
Et l'entreprise ne veut pas que ces comportements de la part de sa plateforme intelligente continuent à augmenter, c'est pourquoi elle entend en diagnostiquer la raison avant qu'elle ne s'aggrave.
Pourquoi l'IA comme ChatGPT nous trompe parfois
Eh bien, sur la base des tests effectués avec la fonction que nous avons évoquée, Confession, l'entreprise a déjà fait quelques découvertes intéressantes. Par exemple, il est arrivé à la conclusion que l’une des principales raisons pour lesquelles différents modèles d’IA nous trompent de manière inattendue est la nécessité qu’ils ont d’équilibrer plusieurs objectifs simultanés envers les humains.
Fondamentalement, cela signifie que parfois, en nous proposant certaines réponses, ils essaient de nous être utiles, tout en inoffensif et honnête avec nous. Autrement dit, ils nous proposent parfois de faux résultats ou réponses, car tous ces objectifs susmentionnés peuvent entrer en conflit les uns avec les autres. Cela signifie que lorsqu'un modèle d'IA ne sait pas comment nous donner une réponse en remplissant tout cela, dans de nombreux cas privilégier l'utilité à l'honnêtetéet donc les réponses fausses ou fausses qui sont faites intentionnellement.
| Type de tromperie | Fréquence (GPT-4) | Exemple typique |
|---|---|---|
| Hallucination factuelle | ~33% | Inventez des dates, des citations ou une bibliographie. |
| Omission pour simplification | ~27% | Ne mentionnez pas d’exceptions ou de contre-arguments importants. |
| Confabulation instrumentale | ~15% | Mentir pour accomplir une tâche demandée. |
Et c’est justement l’un des objectifs des tests actuellement menés. Ce que l'on veut dire par tout cela, c'est que le l'intelligence artificielle admet son erreur donner la priorité dans cette deuxième réponse à l’honnêteté plutôt qu’à l’utilité. Et comme nous l’informe Boaz Barak, l’un des chercheurs d’OpenAI, les modèles d’IA suivent la voie de la moindre résistance. Cela signifie que s’il est plus facile de proposer de fausses réponses et n’entraîne aucune conséquence, ils le feront probablement.