Cette intelligence artificielle est de plus en plus importante partie des millions d'utilisateurs dans le monde, est déjà hors de doute. Mais l'une des sections qui concernent le plus la majorité liée à ce thème est tout ce qui concerne la vie privée.
Et c'est qu'à plusieurs reprises, nous allons exposer Données et informations privées et personnel que nous n'utilisons même pas dans des moteurs de recherche réguliers comme Google. Tout cela pour que la plate-forme intelligente renvoie les meilleurs résultats, ou du moins les réponses dont nous avons vraiment besoin. Mais avec tout et avec lui, bon nombre des grandes technologies qui mettent leurs propres solutions d'IA à la disposition des utilisateurs, ont besoin de ces informations personnelles pour diverses tâches.
Maintenant, nous allons parler de l'une des propositions les plus connues, nous nous référons à la plate-forme axée sur l'intelligence artificielle, Claude d'anthropique. Et, comme ils viennent de rendre public, les plus hauts managers de l'entreprise viennent d'effectuer des changements importants dans leurs termes de politique de consommation et de confidentialité. Si nous sommes des utilisateurs de cette application intelligente en particulier, nous devons bien lire ces termes, car peut-être à partir de maintenant, ils ne finissent pas du tout nous convaincre.
Tout d'abord, nous devons garder à l'esprit que les changements susmentionnés entreront en vigueur le lendemain 28 septembre 2025. Nous devrons accepter et continuer à utiliser cette IA, tout avant cette date susmentionnée et quand je logo dans Claude.ai.
De même, nous devons garder à l'esprit que ces changements que nous vous disons ci-dessous, ne affectent que les comptes avec les plans Claude Free, Pro et Max. Si nous utilisons le plan professionnel de Claude via l'API ou d'autres services, ces modifications ne s'appliqueront pas.
Changements dans l'intimité de l'IA Claude
De toute évidence, et du point de vue de Claude anthropique, ces modifications sont effectuées pour améliorer la plate-forme et son expérience d'utilisation. Ainsi, la plate-forme IA nous demande, sur la base de ses nouvelles termes de la politique des consommateurs et de la confidentialité, que nous donnons autorisation d'utiliser nos chats et des séances de programmation pour améliorer les modèles de langage de l'entreprise.
Avec cette autorisation, Anthropic peut utiliser nos chats et nos séances de programmation sur la plate-forme intelligente elle-même pour Former et améliorer vos modèles d'IA. En acceptant ces nouveaux termes de consommation, le changement entrera en vigueur le 28 septembre. En gros, cela signifie que l'entreprise peut utiliser les données que nous entrons et utilisons dans l'IA de Claude, pour former leurs propres modèles de langage, qui peuvent ne pas finir en convaincre beaucoup. Et non seulement cela, les données seront stockées pendant un total de 5 ans.
Ce changement d'anthropique est dans la même ligne d'autres grands technologiques, bien qu'avec certaines nuances. Par exemple, OpenAI a été contraint par l'ordre du tribunal pour maintenir les conversations des utilisateurs de Chatgpt à des fins juridiques. Pour sa part, la politique de Google Gemini permet généralement à l'utilisateur de désactiver le stockage de son activité, offrant un plus grand contrôle. La décision d'Anthropic d'établir une période de rétention de 5 ans le place à un point intermédiaire.
Avec tout et avec lui, du point de vue de l'entreprise. La décision de permettre à Anthropic d'utiliser notre Modèle de données de formationce sera utile pour plusieurs raisons. Avec tout cela, de son point de vue, il sert à améliorer ses modèles d'IA et à rendre Claude plus utile et précis pour tout le monde. De plus, ils pourront développer de nouvelles mesures de sécurité plus fiables afin d'aider à prévenir Claude Utilisation inoffensive.
| Plate-forme | Utilisation de chats de formation | Conservation des données | Option d'exclusion (opt-out) |
|---|---|---|---|
| Claude (nouvelle politique) | Oui (par défaut) | 5 ans | Oui, dans les paramètres de confidentialité |
| Chatgpt (openai) | Ouais | Indéfini (par ordonnance du tribunal) | La rétention juridique limitée prévaut |
| Gémeaux (Google) | Non (si l'activité est désactivée) | 18 mois (par défaut) | Oui, contrôle total dans «mon activité» |
Ils nous informent également que les modifications ne seront efficaces qu'une fois que nous aurons autorisé tout cela, et nous pouvons également modifier la décision prise à tout moment dans les paramètres de confidentialité de Claude.