Malgré l'énorme boom que les différentes IA ont dans lesquelles nous pouvons utiliser ces moments, ils ne fonctionnent pas toujours aussi bien que nous le souhaiterions. Nous devons prendre en compte qu'il s'agit d'une technologie en pleine croissance qui s'est encore améliorée.
Bien qu'une grande partie de la grande technologie aujourd'hui soit impliquée dans le développement de leur Intelligences artificiellesl'un des meilleurs référents du secteur est Openai. Pas en vain et pour que vous ayez une idée, c'est l'entreprise responsable du populaire Chatte. Au cours des derniers mois, nous avons vu comment de nouveaux modèles de langue sont apparus de plus en plus complexes et dédiés à des tâches plus spécifiques et professionnelles.
Que sont les hallucinations dans l'IA
La vérité est que le plus courant modèles linguistique ia Ils sont de plus en plus capables. L'un des principaux objectifs ici est que les humains peuvent interagir avec ces intelligences de la manière la plus naturelle, obtenant les meilleurs résultats. À tel point que beaucoup commencent à craindre pour leur travail, car ils pourraient être remplacés par cette technologie.
Mais il y a quelque chose qui est détecté récemment et qui attire peut-être beaucoup d'attention, en outre un défi qui n'a pas été entièrement résolu pour le moment. Plus précisément, nous nous référons à Hallucinations de ces AI.
Pour nous comprendre, nous nous référons ici aux cas dans lesquels un modèle de langue génère, avec une sécurité totale, un fausse réponse. Cela signifie qu'il fait que certaines réponses passent que nous devenons aussi totalement vraies et fiables, alors qu'en réalité elles ne le sont pas. C'est ce qu'on appelle dans le secteur de l'intelligence artificielle, comme les hallucinations de ces modèles que nous vous disons. Nous pouvons dire que ce sont des déclarations fiables, mais de fausses déclarations, générées par des modèles linguistiques. Ils peuvent se manifester de différentes manières, même en questions simples.
De toute évidence, à court terme, tout cela peut devenir un grave inconvénient car cela signifierait que nous ne pouvons pas confier à 100% dans cette technologie. Eh bien, à ce stade, nous pouvons mentionner que les études récentes de l'Openai elle-même, soutiennent qu'ils sont hallucinés parce que les procédures de formation et d'évaluation standard hiérarchirent l'hypothèse sur le Reconnaissance de l'échec.
En fait, comme les détails OpenAI dans ses modèles de langage technique de réglage technique pour l'honnêteté, les hallucinations surviennent parce que les procédures de formation standard encouragent les conjectures plausibles au-dessus de l'admission de l'incertitude. L'étude indique textuellement que le modèle de récompense pénalise l'incertitude que les erreurs factuelles.
Raison principale des hallucinations de l'intelligence artificielle
Fondamentalement, cela signifie qu'ils enseignent à ces plateformes intelligentes pour offrir de fausses réponses avant d'admettre une erreur ou une ignorance. Par conséquent, pour le moment, les hallucinations restent un défi pour tous les grands modèles linguistiques. Bien sûr, la plupart des entreprises qui sont à l'origine de ces projets travaillent pour les réduire au maximum.
Comme nous le dit le propre OpenaiChatgpt Hallucin en utilisant son modèle de langue attendu et le plus récent, GPT-5. Il est vrai que tout cela a été considérablement réduit, surtout lors du raisonnement, mais se produit toujours. L'une des principales raisons de ces hallucinations que nous vous disons, sont données par la formation que l'IA, où elles sont établies incitations erronées. Nous pouvons affirmer que dans la plupart des cas, les performances du modèle sont prioritaires, ce qui encourage la conjecture au lieu de l'honnêteté.
Par exemple, nous pouvons dire que dans le domaine juridique, certains avocats de New York ont été sanctionnés pour avoir présenté une lettre judiciaire qui a cité 6 phrases complètement inventées par Chatgpt. De plus, dans le secteur médical, des modèles tels que Med-Palm 2 ont réalisé à tort diagnostiquer à tort les lésions cutanées bénignes telles que les mélanomes.
| Modèle / plate-forme | Hallucination générée | Conséquence réelle | Source documentée |
|---|---|---|---|
| Chatppt-4 | Il a inventé 6 précédents judiciaires non existants pour une affaire juridique. | Sanction aux avocats d'un juge fédéral à New York. | Le New York Times |
| Google Bard (maintenant Gemini) | Il a déclaré à tort dans une annonce que le télescope James Webb avait pris la première photo d'un exoplanet. | Chute de 100 000 millions de dollars en valeur des actions d'Alphabet. | Reuters |
| Med-Palm 2 (Google) | Diagnostic erroné d'une taupe bénigne comme mélanome possible. | Risque d'intervention médicale inutile et de stress pour le patient. | Recherche IBM |
| Chatppt-4 | Il a créé une fausse biographie d'un maire australien, l'accusant de crimes qu'il n'a pas commis. | Menace de la demande de diffamation contre Openai. | Reuters |
Comment résoudre ces échecs dans l'IA
Cela signifie que si l'IA est avec plusieurs réponses pour nous donner, essayez d'offrir une conjecture risquée, qui se traduit souvent par mensonge ou hallucination. Tout cela au lieu d'accepter que la réponse est inconnue. Comme Openai nous ditil y a une solution simple pour tout cela.
C'est quelque chose qui se produit parce que les différentes entreprises responsables de la formation des différents modèles linguistiques devraient commencer à pénaliser les erreurs plutôt qu'à l'incertitude. En fait, des notes négatives pour des réponses incorrectes ou un crédit partiel sont déjà en cours de mise en œuvre.
Enfin, nous vous dirons que ces hallucinations sont déjà réduites par l'IA, au minimum. Mais il y a encore du travail à faire à cet égard.