La croissance, à la fois en quantité et en utilité des différentes plateformes d’Intelligence Artificielle qui apparaissent, est évidente en ce moment. Mais tout n’est pas toujours aussi joli qu’ils le prétendent, les risques liés à la sécurité et à la vie privée sont toujours là, comme nous le verrons.
Malgré son énorme croissance au cours des derniers mois, il faut tenir compte du fait que la plupart des Les plateformes d’IA fonctionnent en ligne. Cela signifie que d’une manière ou d’une autre, nous exposons et proposons certaines données personnelles afin d’utiliser ces services, quelle que soit la manière dont ils sont utilisés. Avec cela, ce que nous voulons vraiment vous dire, c’est que les risques d’exposer notre vie privée, comme cela se produit avec d’autres plateformes Internet, sont là.
C’est quelque chose que, par exemple, la société de sécurité populaire Check Point a voulu clarifier à travers cette découverte qu’elle a rendue publique. Il faut tenir compte du fait que des millions d’utilisateurs dans le monde utilisent différentes propositions axées sur la L’intelligence artificielle aux usages multiples, tant professionnelle que personnelle. A priori, une bonne partie de ces plateformes, comme les précitées ChatGPT, Bard ou Bing, assurent qu’elles ne mettent pas en cache les informations privées que nous envoyons.
Mais avec tout et avec lui en ce moment, la société de sécurité susmentionnée a déjà détecté plusieurs incidents à cet égard. Par exemple, ils ont découvert que le populaire ChatGPT a exposé des données sensibles en raison de certaines vulnérabilités vu dans le développement actuel de ces systèmes. Comme communiqué par la société de sécurité, un fournisseur spécialisé dans ce sujet, publie une série de rapports sur une nouvelle vulnérabilité dans le Modèles de langage large ou LLM de certains de ces services.
Diverses plateformes d’IA exposent les données de leurs utilisateurs
Plus précisément, comme indiqué, cette vulnérabilité a été détectée dans des services bien connus tels que ChatGPT, Google Bard ou Microsoft Bing Chat. Ici, nous pouvons ajouter d’autres plates-formes IA moins populaires qui utilisent toujours LLM. Dans le même temps, nous devons garder à l’esprit que de plus en plus de développeurs utilisent ces services intelligents pour développer le code qu’ils utilisent dans leurs projets.
L’utilité apportée par ces Intelligences Artificielles ne fait aucun doute dans la plupart des cas. Mais il faut aussi garder à l’esprit que ces outils peuvent devenir un source majeure de violation de données. C’est précisément pour tout cela que les développeurs de logiciels et les utilisateurs eux-mêmes doivent prendre certaines précautions à cet égard. Avec la croissance des différentes plateformes d’IA, il est de plus en plus courant que nous partagions certaines données privées et sensibles.
Fondamentalement, cela signifie que les risques de fuites via ces services en ligne augmenteront au fil des années et à mesure que leur utilisation se généralisera. Mais comme d’habitude sur d’autres plates-formes en ligne vulnérables, des entreprises comme Check Point susmentionnée mettront à notre disposition différents solutions de sécurité continuer à protéger ses millions de clients.