Tant dans les environnements personnels que professionnels, ChatGPT AI devient une partie importante des utilisateurs du monde entier. Cette technologie axée sur l’intelligence artificielle change pour beaucoup la façon dont ils programment, travaillent avec des photos ou génèrent des textes, entre autres utilisations.
De plus, nous pouvons obtenir une quantité énorme de informations en ligne de manière plus précise et plus riche. Et cela ne fait que commencer puisque, selon de nombreux experts, l’IA va prendre une place importante dans nos vies dans un avenir proche. Ainsi, certaines précautions commencent même à être prises pour que nos vies réelles ne ressemblent pas à certains films de science-fiction.
Principalement en raison de l’utilisation généralisée de ces plateformes et applications, les cybercriminels sont à l’affût, comme c’est le cas dans de nombreux autres domaines. Certains attaquants à travers le monde tentent de tirer profit d’une manière ou d’une autre de ces technologies basées sur l’Intelligence Artificielle. C’est précisément là que le soi-disant FraudeGPT.
Qu’est-ce que FraudGPT et comment il est né
Tout d’abord, nous devons être clairs sur le fait qu’il s’agit d’un outil qui commence à se répandre maintenant et qui est né dans le noir Web et sur Telegram. Il fonctionne de manière similaire à ChatGPT mais son objectif principal est de créer du contenu pour faciliter les cyberattaques des criminels. C’est quelque chose qui a été découvert pour la première fois en juillet de cette année, et l’un des principaux avantages qu’il propose est qu’il ne dispose pas des contrôles et des limitations qui, par exemple, excluent certaines réponses dans ChatGPT.
Dans le même temps, il faut également tenir compte du fait qu’il s’agit d’un outil qui est mis à jour de temps en temps et qui fonctionne avec différents modèles d’IA. FraudGPT dispose en même temps d’un modèle de paiement par abonnement avec des prix qui passent par le 200 dollars par mois soit 1 700 par an.
Initialement, l’interface utilisateur qu’il nous présente est très similaire à celle de ChatGPT. Ainsi, l’utilisateur n’a qu’à écrire dans la fenêtre correspondante pour recevoir la réponse de l’IA. Évidemment, n’ayant aucune limite, les cybercriminels recherchent le meilleur moyen d’attaquer leurs victimes potentielles par différents moyens. Parmi ceux-ci sont consultés comment créer des emails pour générer des attaques de phishing et extraire les coordonnées bancaires, par exemple.
Comment cette IA peut nous nuire
De plus, FraudGPT est même capable de créer des sites Web frauduleux qui encouragent les victimes à fournir ces informations personnelles. Certains attaquants génèrent même des listes de services de sites Web courants pour préparer leurs prototypes et leurs futures attaques. Il a été prouvé que les algorithmes de l’outil ont été entraînés avec de grandes quantités de données lié aux logiciels malveillants pour que L’IA est plus efficace dans ce sens.
Cela signifie que FraudGPT démontre, une fois de plus, que les avancées technologiques les plus importantes s’accompagnent de nouvelles cyberattaques dont profitent les criminels. Dans ce cas, ce fut le tour de l’intelligence artificielle, comme cela s’est produit dans le passé avec tant de technologies en pleine croissance.
Même s’il faut être vigilant, la vérité est que ces outils sont encore très récents, il est donc trop tôt pour savoir quand ils commenceront à être réellement bénéfiques pour les cybercriminels. Il ne fait aucun doute que FraudGPT et d’autres produits similaires sont utilisés à des fins malveillantes. aidera les pirates à gagner beaucoup de temps.