Windows 11 demandera la permission avant de laisser l'IA voir vos fichiers

Il y a quelques semaines, Microsoft a révélé une autre partie de ses projets ambitieux visant à proposer des agents d'IA qui s'intègrent plus profondément à Windows 11. Le principe est pratiquement quelque chose de futuriste : des assistants intelligents qui peuvent interagir avec nos fichiers, applications et paramètres système. Mais le problème est venu de l’honnêteté « extrême » de l’entreprise sur un point précis…

Et Microsoft a reconnu un détail qui a effrayé des millions d'utilisateurs : l'IA peut halluciner et se comporter de manière inattendue, créant de nouveaux risques de sécurité.

Face à ce scénario, la communauté technologique a explosé. Microsoft allait-il autoriser un système sujet aux pannes à accéder à nos documents financiers, à nos photos ou à nos paramètres système ? Depuis Redmond, ils ont donc dû réagir immédiatement et ont cédé à la pression du public.

Suite à cela, le 5 décembre, Microsoft a mis à jour sa documentation de support. Et sur place, il a reconnu ce qui aurait dû être évident dès le départ : les agents IA ne peuvent pas accéder à vos fichiers personnels sans demander explicitement l'autorisation. Ils ont donc ajouté plus de contrôle sur quel agent peut voir quoi dans notre système. Microsoft ne travaille donc que lorsque l’indignation du public est évidente.

Le problème que Microsoft a créé puis reculé

Il y a quelques semaines, des utilisateurs du programme Windows Insiders ont signalé que Microsoft préparait un accès illimité pour les agents IA à six dossiers Windows essentiels : Bureau, Documents, Téléchargements, Musique, Images et Vidéos. Le plan était que Copilot puisse y accéder pour « accomplir des tâches » rapidement. Mais cette décision a provoqué la colère de toute la communauté.

Mais ce qui a vraiment porté cela au niveau du scandale, c'est une déclaration dans la documentation où il était dit textuellement : « Les modèles d'IA sont toujours confrontés à des limitations fonctionnelles dans leur comportement et peuvent occasionnellement halluciner et produire des réponses inattendues. »

En d’autres termes, Microsoft savait que ses systèmes d’IA sont fondamentalement imprévisibles. Mais vous avez quand même décidé de leur donner accès à nos informations financières, personnelles ou sensibles. La communauté technologique n’a donc pas du tout pris cette décision correctement.

Sous la pression de la communauté, Microsoft finit par mis à jour votre documentation le 5 décembre, confirmant que les agents d'IA ne pourront pas accéder à notre contenu sans consentement explicite. Et même s’il s’agit d’un changement important, il laisse encore beaucoup à désirer en termes de résultats.

Désormais, lorsqu'un agent IA comme Copilot a besoin d'accéder à nos fichiers personnels, Windows nous montrera une fenêtre contextuelle avec trois options :

  • « Toujours autoriser. » L'agent aura un accès permanent aux 6 dossiers déjà mentionnés et ne nous le demandera plus.
  • « Demandez toujours. » Windows nous demandera l'autorisation chaque fois que l'agent souhaite accéder à nos fichiers.
  • « Ne permettez pas. » Blocage total. L'agent ne verra jamais nos fichiers.
Copilot demande que nous vous accordions différentes autorisations d'accès à nos fichiers. Photo : Microsoft.

Les limites de ce changement

Bien que ce changement signifie en partie un plus grand contrôle pour les utilisateurs, nous avons encore un autre gros problème : nous ne pouvons pas donner accès aux dossiers individuellement. Si vous souhaitez que Copilot ait accès à vos documents, mais pas à vos téléchargements, il n'y a aucune option pour l'autoriser. L'agent accédera donc aux 6 dossiers ou à aucun.

Mais l’inquiétude reste sur la table. Microsoft a admis que ses agents IA peuvent avoir des hallucinations et échouer, mais ne propose aucune solution. Il n’existe aucune protection contre « l’injection d’invites inter-contextes » (XPIA). Une technique permettant à quelqu'un de manipuler un agent IA via ses propres fichiers.

Par conséquent, la réalité est que ces contrôles d’autorisations sont loin d’être une solution définitive et passent plutôt par un correctif de Microsoft. En fait, tant que les agents IA peuvent halluciner et échouer de manière imprévisible, aucun système d’autorisation ne sera sécurisé à 100 %.