Un développeur était à « 30 secondes » d'exécuter un malware après un faux entretien d'embauche

Les cyberarnaques sont de plus en plus courantes dans notre environnement numérique. Mais elle atteint déjà des niveaux de sophistication et de scénarios insoupçonnés : en entretiens d'embauche. C'est là qu'intervient le cas de David Dodda, un ingénieur logiciel qui était sur le point de tout perdre dans un processus de sélection apparemment légal.

L'ingénieur raconte lui-même comment, après une offre d'emploi tout à fait réaliste d'une société blockchain, il était à moins de 30 secondes d'exécuter un malware conçu pour voler des informations d'identification, des crypto-monnaies et des données sensibles sur son propre PC.

Ce qui a sauvé ce professionnel, ce ne sont pas les outils avancés ni l'antivirus le plus puissant, mais simplement le fait de demander à une IA (Cursor AI) si le code qu'il avait reçu cachait une fonctionnalité dangereuse. Cet incident met en lumière un nouveau danger qui n'avait pas encore effleuré l'esprit des internautes : les fausses interviews.

Dans ce cas, les attaquants se font passer pour les RH d'une entreprise, où ils publient de fausses offres d'emploi sur des plateformes telles que LinkedIn et livrent des tests techniques camouflés contenant des logiciels malveillants. Dans ce cas, l’IA était la sauvegarde dudit ingénieur.

La tromperie et comment l’IA l’a évitée

Dans le cas de David Dodda, comme indiqué dans son propre blog officiell'attaquant s'est fait passer pour le directeur de la blockchain de Symfa. Une entreprise légitime et existante, présente sur LinkedIn lui-même. Seulement cette fois, il a réussi à se faire passer pour un ouvrier pour tenter de commettre le crime.

Après une première conversation, le faux recruteur a programmé un entretien et a demandé au développeur de télécharger et d'exécuter un logiciel pour passer un test technique et démontrer ses compétences. Le référentiel Bitbucket que j'ai utilisé avait une apparence professionnelle : un README propre, une documentation soignée et même des images d'entreprise.

De son côté, Dodda a revu le code et, après avoir corrigé quelques erreurs, s'apprêtait à exécuter la commande qui l'avait infecté. Mais à la dernière minute, inquiet de ne pas avoir suffisamment de temps pour vérifier le contenu, il a demandé à son assistant Cursor AI de vérifier le contenu pour déceler d'éventuels bugs ou fonctions suspectes. Et c’est grâce à cette requête que l’IA a détecté des schémas dangereux et empêché l’exécution de malwares.

Déclarations de David Dodda sur son site officiel sur la façon dont il a trouvé le scénario maléfique. Photo : David Dodda.

L’IA est-elle une nouvelle défense ?

La méthode utilisée par les criminels n’est pas un incident isolé. Depuis l’année dernière 2024, les attaques basées sur de faux entretiens se multiplient. Encore plus lorsqu’il s’agit de professionnels des secteurs de la fintech et de la blockchain.

Pour ce faire, il existe des mesures de sécurité pour se protéger, comme les fameux « sandbox » comme Windows Sandbox, ou d'autres systèmes de sécurité. Mais nous pouvons également poser des questions précises à l'IA pour garantir notre sécurité : « Voyez-vous quelque chose de suspect ? » Ce code accède-t-il à des informations privées ? Détectez-vous les fonctionnalités de vol ?

Outil Gars Fonction clé dans ce contexte
Curseur IA Éditeur de code IA Analysez le code source pour détecter les modèles et fonctions malveillants avant l'exécution.
Bac à sable Windows Environnement d'isolement (bac à sable) Exécutez des applications dans un environnement virtuel sécurisé et jetable pour empêcher les logiciels malveillants potentiels d’infecter le système principal.

Dans ce cas, la vitesse et la capacité de l’IA à analyser des modèles étranges peuvent servir de protection et nous permettre de survivre à la tromperie. L'expérience de David Dodda constitue un avertissement clair pour la communauté. Nous ne devrions jamais exécuter de code inconnu sans un deuxième examen. En outre, nous pouvons également utiliser le potentiel des outils intelligents pour lutter contre les escroqueries numériques.