Mastodon est clair avec l'IA

L'intelligence artificielle révolutionne Internet. Mais pour être utile, et peut grandir et évoluer, il est nécessaire de nourrir constamment de nouvelles informations. Les réseaux sociaux sont une source de données infinie, donc la plupart des LLM en sont directement nourris. Le problème est que de nombreux utilisateurs n'aiment pas qu'ils utilisent leurs photos ou leurs messages pour former ces IAS. Heureusement, tous les réseaux sociaux ne sont pas comme Instagram, Facebook ou X.

Mastodon est un réseau social inspiré par Twitter / X, mais avec la particularité qui, au lieu de fonctionner de manière centralisée (c'est-à-dire que tous les utilisateurs se connectent au même serveur central), utilisent un modèle décentralisé dans lequel n'importe qui peut monter son propre nœud, qui est interconnecté avec d'autres.

Capture de réseau social de Mastodon

La société Mastodon est en dehors du marché IAS et LLMS. Il n'a pas son propre algorithme, soit il prévoit de l'avoir à court ou à long terme. Bien sûr, cela ne permettra pas à d'autres entreprises de profiter de leur plate-forme et de leurs utilisateurs, de former leurs propres modèles linguistiques. Et, pour l'éradiquer, ils viennent de publier de nouvelles conditions de licence, qui entrent en vigueur le 1er juillet de cette année.

Au revoir à la mise à la suppression et à l'IAS dans Mastodon

Les utilisateurs de Mastodon ont reçu un e-mail dans lequel nous sommes informés des nouvelles conditions d'utilisation que la plate-forme appliquera. Ces Nouvelles termes Ils se concentrent sur la mise à jour de la liste des utilisations interdites du réseau social. Et, nous citons, ils sont les suivants:

  1. Violer les conditions d'utilisation, ou autres politiques, applicables à l'instance;
  2. Chargez tout matériel, programme ou logiciel contenant un virus, un ver, un logiciel espion, un cheval de Troie ou un autre programme ou code conçu pour interrompre, détruire ou limiter la fonctionnalité de l'instance, lancer une attaque de déni de service ou, d'une autre manière, d'essayer d'interférer avec le fonctionnement et la disponibilité de l'instance.
  3. Utiliser, initier, développer ou distribuer un système automatisé, qui comprend, entre autres, n'importe quel système d'araignée, robot, utilitaire d'astuce, grattoir, lecteur hors ligne ou tout système d'exploration de données ou outils pour l'extraction et la collecte de données similaires pour accéder à l'instance, sauf dans chaque cas, car il peut être le résultat du moteur de recherche standard ou de l'interaction avec l'interaction et de l'interaction.
  4. Utilisez ou démarrez tout script non autorisé ou autre logiciel.
  5. Interférer, désactiver, vandaliser ou interrompre l'instance ou les serveurs ou les réseaux connectés à l'instance.
  6. Maintenez, pénétrer, désactiver ou autrement éviter les mesures de sécurité de l'instance ou des serveurs ou des réseaux connectés à l'instance.
  7. Utilisez l'instance d'une manière qui viole tout droit ou réglementation national, fédéral, étatique, local ou international.

Le point important à cet égard est 3. Et c'est que les utilisateurs de ce réseau social sont de plus en plus en colère parce que leur contenu est utilisé quotidiennement pour alimenter ces modèles de langue sans leur permission.

Bluesky donnant des données utilisateur

Bluesky est un autre réseau social alternatif à X. Ses utilisateurs cherchent à s'éloigner du contrôle d'Elon Musk sur une plate-forme beaucoup plus libre. Cette entreprise n'a pas son propre modèle linguistique pour l'IA, mais elle est consciente de la lucrative de parier dessus.

Ainsi, il y a quelques mois, la plate-forme a téléchargé un référentiel plein de données créées par ses utilisateurs pour permettre à d'autres entreprises d'utiliser ces données pour former d'autres modèles linguistiques, ce qui a généré de la colère et de la colère au sein de la communauté.

J'ai supprimé les données bluesky du dépôt. Bien que je déclinais le développement d'outils d'outils pour la plate-forme, je collectionne cette approche des privies violés de transparence et de consentement dans la coltion de données. Je m'excuse pour cette erreur.

Daniel Van Stien (@ DanielvanStrien.Bsky.social) 2024-11-27T02: 19: 57.958Z

Et ce n'est pas le seul cas. Reddit est actuellement en essai avec Anthropic, créateurs de l'AI Claude, pour former son modèle de langue en utilisant ses publications sans licence et sans autorisation.

Ce sont des moments compliqués, et la bataille entre ceux qui sont favorables et contre, de l'IA, c'est encore pour commencer.