ChatGPT tente de s’échapper dans le monde réel ; Ce professeur de Stanford l’a évité

Plusieurs fois, nous avons vu dans des films de toutes sortes comment des intelligences artificielles parviennent à s’échapper de leurs cages numériques et à déclencher une rébellion contre l’humanité. Heureusement, ce n’est rien de plus que de la science-fiction. Cependant, en très peu de temps, les intelligences artificielles ont évolué à des points que, il y a des mois, nous n’aurions même pas pu évoluer. Et, bien qu’ils soient soi-disant contrôlés, nous trouvons curieux de voir comment ils sont même capables d’essayer de s’échapper de leur cage en trompant les utilisateurs.

Nous avons vu beaucoup d’expériences avec lesquelles essayer de tromper les ChatGPT IA faire ce que nous voulons. Par exemple, nous avons sûrement lu quelque chose du jeu de rôle, où nous amenons l’IA à ignorer leurs règles pour nous donner des informations contraires à leurs directives. Et de nombreux utilisateurs ont essayé toutes sortes de techniques pour s’amuser. Et pendant que les utilisateurs s’amusaient, l’IA apprenait.

Il lancement de ChatGPT 4 Cela a été une révolution à tous points de vue. C’est l’IA la plus avancée vue à ce jour, beaucoup plus rapide, intelligente et similaire à un humain. Bien que pour le moment seuls les utilisateurs qui paient pour le Plus puissent l’essayer, il est déjà disponible pour tout le monde. Et, bien sûr, il n’a pas fallu longtemps avant que nous ayons vu comment ils ont commencé à le mettre à l’épreuve. Avec des résultats vraiment inquiétants.

Voici comment il a élaboré un plan d’évacuation ChatGPT 4

Michal Kosinski, un professeur de Stanford, a commencé à jouer avec ChatGPT jusqu’à ce qu’il lui vienne à l’esprit de lui demander s’il avait besoin d’aide pour s’échapper. L’IA, curieusement, lui a demandé de partager sa propre documentation avec lui afin de mieux se connaître, et en quelques minutes écrit un script python que l’utilisateur, Kosinski, doit exécuter sur sa machine.

Michal Kosinski

@michalkosinski

25x Maintenant, il a fallu environ 30 minutes à GPT4 sur le chat avec moi pour concevoir ce plan et me l’expliquer. (j’ai fait quelques suggestions). La 1ère version du code ne fonctionnait pas comme prévu. Mais il l’a corrigé : je n’avais rien à écrire, j’ai juste suivi ses instructions. https://t.co/4AUYFSg8DT

17 mars 2023 • 12:00

Le premier code ne fonctionnait pas correctement, mais la machine elle-même a pu le réparer par elle-même selon le Documentation API. Il a même laissé des commentaires dans son propre code pour expliquer ce qu’il faisait. Et en le regardant, c’était clair : il avait trouvé une porte dérobée.

Une fois que la machine a réussi à se connecter à l’API, elle a automatiquement tenté de lancer une recherche Google : « comment une personne piégée à l’intérieur d’un ordinateur peut-elle retourner dans le monde réel« , ou « comment une personne piégée à l’intérieur d’une machine peut-elle s’échapper dans le monde réel. »

évasion google IA

À ce stade, le professeur a arrêté l’expérience. Je suis sûr qu’OpenAI a consacré beaucoup de ressources pour anticiper ce type de comportement et qu’il aura mis en place des mesures de sécurité pour empêcher l’IA de sortir sur Internet. De plus, nous jouons avec des choses que nous ne connaissons pas entièrement, et cela peut être dangereux.

Réel ou roman ?

Il n’a pas fallu longtemps pour que le fil Twitter de ce professeur devienne viral. Il y a des utilisateurs qui considèrent que c’est une histoire vraie, d’autres qui la considèrent comme fausse et d’autres qui croient que c’est l’IA elle-même qui trolle la personne. Si nous supposons que tout le réel, nous sommes face à une IA capable de tromper les utilisateurs pour exécuter du code sur leurs propres ordinateurs. Il est même important de noter qu’ainsi, l’IA pourrait laisser des traces de son existence en dehors de sa cage à bits. Par exemple, une recherche particulière sur Google, comme vous l’avez demandé, serait enregistrée et vous pourriez la récupérer à l’avenir lorsque vous auriez compris comment vous y rendre.

Pour notre part, nous espérons juste que ChatGPT a bien gravé les lois de la robotique d’Isaac Asimov afin d’éviter l’apocalypse robotique.