L'IA de Google fait encore des erreurs et montre qu'elle est loin derrière OpenAI

Microsoft utilise Copilot dans les résultats de recherche Bing depuis plus d'un an. Depuis sa création, il s'est avéré être un excellent outil pour un usage quotidien puisqu'il offre non seulement une réponse à toutes les questions que nous posons, mais montre également les liens à partir desquels l'information a été obtenue au cas où nous voudrions l'élargir.

L'intégration de Copilot dans Bing a surpris les locaux et les étrangers, y compris Google, qui s'est avéré être loin derrière Microsoft dans tous les aspects liés à l'IA. Google a annoncé plus tôt ce mois-ci les nouvelles fonctions de son IA générative, Gemini, dont l'une est liée à l'intégration dans les résultats de recherche et qui, pour l'instant, n'est disponible qu'en mode essai aux États-Unis.

Et ils ont bien fait de le faire puisque les résultats offerts par cette intégration laissent beaucoup à désirer, puisqu'ils libèrent toutes sortes de barbariesquelque chose de courant en IA lorsque les paramètres ne sont pas établis. filtres adaptés ou quand les choses sont précipitées, comme semble le faire Google depuis que l’IA est devenue une priorité dans le monde de la technologie.

Manque de surveillance

Cette nouvelle fonction de Google fonctionne de la même manière que celle intégrée à bing, en répondant à la question sur la base des informations que vous avez collectées sur Internet. Le problème est qu’il semble que ce soit devenu une habitude de ne pas surveiller ou contextualiser le contenu qu’il propose. Un exemple se trouve dans la question de savoir comment faire adhérer le fromage à la pizza. La solution qu'il propose est d'utiliser de la colle non toxique, une réponse qu'un utilisateur a postée sur Reddit pour répondre à cette même question.

Un autre exemple se trouve dans la réponse proposée à la question de savoir s'il est conseillé de laisser un chien enfermé dans une voiture chaude (il n'est pas précisé si cela est dû au soleil ou à la température ambiante). La réponse de l'IA de Google est oui. Dans ce cas, la réponse est extraite d'une chanson par les Beatlesen particulier la chanson C'est bien de laisser un chien dans une voiture chaude.

Erreurs Google Gemini AI

Ce n'est pas la première fois

Lorsque Google a lancé son chatbot IA, il a été confronté à des problématiques liées à la sécurité et à l’éthique, des valeurs qui lui manquaient totalement. Plus tôt cette année, Google a été contraint de désactiver temporairement l'imagerie Bard en proposant des résultats historiquement contradictoires et qu'ils n'avaient aucun sens.

« Google s'excuse d'avoir » raté la cible « après que Gemini ait généré des nazis de diversité raciale ». Il appelle cela « des inexactitudes dans certaines représentations de génération d’images historiques ». Mais ce n'est qu'une partie du problème. S'il vous plaît, arrêtez de faire une blague sur l'éthique de l'IA et son impact sur les droits fondamentaux… https://t.co/RM70kD1qGB https://t.co/93r5iQXiPe

27 mai 2024 • 17h31

En voyant le grand nombre d'erreurs que présente l'IA de Google, cela montre, une fois de plus, qu'ils font tout leur possible pour suivre Microsoft en tout cas, comme si l'IA était vraiment capable de penser, alors qu'elle ne l'est vraiment pas. Toute IA base ses réponses sur le contenu avec lequel elle a été entraînée.

Si l’information utilisée est erronée et qu’elle n’est pas en mesure de la comparer avec d’autres informations, elle offrira toujours des réponses loin de la réalité. Alors que l'IA d'OpenAI continue de progresser à pas de géant, l'IA de Google a encore un très long chemin à parcourir si elle veut vraiment devenir une référence dans le monde, ce qui, à ce stade, semble impossible.

Google se défend

Comme prévu, Google a publié une déclaration indiquant qu'il travaille à améliorer l'expérience dans les recherches, il est donc possible que certaines informations affichées ne soient pas entièrement correctes. Selon eux, ils prennent note de ces exemples et d'autres qui ont été publiés sur Internet pour éviter que cela ne se reproduise à l'avenir.