Nous vous disons tout cela car nous utilisons à de nombreuses reprises des plateformes comme celles mentionnées, qui sont parmi les plus populaires et utilisées au monde, pour discuter ou générer des textes automatiques. Nous réalisons également tous types de requêtes grâce auxquelles nous obtenons des réponses plus ou moins complètes. en fonction de l’invite que nous utilisons.
Cependant, petit à petit, nous réalisons qu’il faut être un peu plus prudent avec les résultats que nous fournissent ces IA. Et nous ne pouvons pas nous concentrer uniquement sur ces deux-là, nous faisons référence à pratiquement toutes les applications et plates-formes d’intelligence artificielle que nous pouvons utiliser actuellement. Un exemple clair de tout cela est vérifié par de nombreux utilisateurs lorsqu’ils utilisent ces applications avec des requêtes liées à calculs mathématiques.
Les utilisateurs du monde entier se rendent désormais compte que des modèles comme Google Gemini ou ChatGPT, entre autres, présentent des défauts mathématiques importants lorsqu’il s’agit de proposer des résultats. Et la première chose à prendre en compte est que les chatbots ne sont pas exactement des calculatrices. Nous devons garder à l’esprit que lorsque l’on pose des questions avec n’importe quel chatbot, il est préférable de fournir autant d’informations que possible et de préparer soigneusement l’invite pour obtenir une bonne réponse.
Ne vous fiez pas aux résultats mathématiques des IA
Il est très probable qu’à de nombreuses reprises vous ayez pu constater par vous-même les excellents résultats obtenus par ces modèles de langage ils nous fournissent lors de la génération de textes automatiques. Mais comme nous vous l’avons déjà dit, ce ne sont pas des calculatrices. Et lorsque nous demandons la résolution de calculs mathématiques ou de problèmes plus complexes liés aux nombres, nous devons vérifier attentivement les résultats obtenus.
Nous vous disons tout cela car, par exemple, de nombreux utilisateurs ont détecté que la proposition la plus populaire, ChatGPT, est également fausse. C’est quelque chose qui a été vérifié à de nombreuses reprises lors de l’utilisation de la logique ou même lors de comptes de base.
Bien sûr, beaucoup pourraient penser que demander à un modèle linguistique faire office de calculatrice, ce n’est pas tout à fait juste. Ce serait peut-être comme demander à une calculatrice d’écrire un roman, ce n’est pas le but pour lequel elle a été conçue. Par conséquent, lorsque nous demandons un calcul mathématique à une IA axée sur le texte, nous devons vérifier les résultats. De plus, cela peut être étendu à la grande majorité des modèles actuels, dont beaucoup appartiennent à de grandes entreprises technologiques.
En même temps, il faut garder à l’esprit que ces erreurs dans les calculs mathématiques et dans l’utilisation de la logique se retrouveront dans les modèles les plus avancés comme GPT4 par exemple. Et nous ne parlons pas seulement d’équations complexes ou de calculs tordus, mais des erreurs ont été détectées même lors de comptages de base d’éléments ou de travail avec des données numériques en général.
Non seulement ça, mais parfois quand signalons l’erreur à l’IA, excusez-vous et proposez-nous une réponse alternative, elle ne sera pas forcément correcte non plus. En bref, ces modèles intelligents sont excellents pour créer des textes automatiques, mais lorsque nous effectuons des calculs mathématiques et travaillons avec des chiffres, nous devons vérifier les résultats.