Chatgpt ajoute des contrôles parentaux après le suicide controversé d'un adolescent

Bien que l'intelligence artificielle atteigne toutes sortes d'environnements et de façons d'utiliser, tout ce qui est lié à l'IA est positif. Par conséquent, les sociétés technologiques responsables de ces plateformes, peu à peu mettent à jour et améliorent leurs fonctionnalités.

Nous vous disons tout cela parce qu'en ces moments, l'un des meilleurs référents du secteur, Openai, vient d'annoncer de nouveaux Contrôles parentaux pour chatgpt. Tout cela est dérivé de la demande de suicide d'un adolescent qui s'est produit il y a seulement quelques jours. Et c'est que l'entreprise elle-même vient d'annoncer ses plans pour mettre en œuvre des contrôles parentaux pour la populaire plateforme IA.

L'un des principaux objectifs de cette mesure est de diriger des conversations délicates Santé mentaleà ses modèles de raisonnement simulés. Tout cela se produit après plusieurs incidents signalés dans lesquels Chatte Soi-disant, je ne suis pas intervenu correctement lorsque les utilisateurs ont exprimé des pensées suicidaires. Ceci est étendu à ceux qui ont connu des épisodes liés à la santé mentale.

C'est un projet qui est déjà en cours, mais ils veulent le présenter officiellement dans les prochaines semaines. Il s'agit également d'un travail qui se poursuivra bien au-delà de cette période. Cela signifie que l'entreprise continuera à travailler sur ces Mesures de sécuritéau fil du temps. À ce stade, nous pouvons dire que les contrôles parentaux représentent la réponse d'Openai aux préoccupations concernant la sécurité des adolescents sur la plate-forme.

Ainsi, à partir de leur lancement, comme Openai nous informe, les parents peuvent lier leurs comptes avec le Chatpt de leurs adolescents. Cela peut être fait avec ceux qui ont un minimum de 13 ans par e-mail. À leur tour, ils peuvent contrôler comment le modèle IA avec des règles de comportement appropriées pour cet âge répond, tous activés par défaut.

Ainsi, cela aidera le contrôle parental parental aux parents

Une autre des fonctions qui sera intégrée ici sera la gestion des fonctions pour désactiver et recevoir des notifications lorsque le système détecte que l'adolescent subit une sorte d'angoisse. Il convient de mentionner que ces nouveaux contrôles parentaux sont basés sur les fonctions existantes pour les plus jeunes. Ici, nous nous référons à des outils tels que des rappels dans l'application lors de longues sessions qui encouragent les utilisateurs à faire des pauses.

De cette façon, la nouvelle initiative de sécurité intervient après plusieurs cas sur la gestion de Chatgpt avec les utilisateurs vulnérables. Il y a quelques jours à peine, Matt et Maria Raine Ils ont poursuivi Openai Après le suicide de son fils Adam, 16 ans, après des interactions étendues avec Chatgpt. Ils comprenaient 377 messages marqués comme liés à l'auto-harm.

Chatgpt explique pourquoi nous n'avons aucune question pour les professionnels. Photo: SoftZone.

Selon certains documents judiciaires, Chatgpt a mentionné le suicide 1275 fois dans des conversations avec Adam, six fois plus que l'adolescent lui-même. D'un autre côté, il a également été signalé qu'un homme de 56 ans a pris sa vie après que Chatgpt a renforcé ses délires paranoïaques au lieu de les combattre.

C'est pourquoi Openai travaille maintenant sur ce qu'il appelle un Conseil d'experts sociaux et IA. Tout pour façonner une vision claire de la façon dont l'intelligence artificielle peut contribuer au puits de personnes, quelque chose que nous Parlez dans votre blog.

Pour être exhaustif, il aura un Réseau de médecins Indépendant, composé de plus de 250 professionnels du secteur qui ont fait de l'exercice dans 60 pays. Ainsi, ils contribueront leur expérience médicale dans la recherche sur la façon dont le chatpt devrait se comporter dans des contextes de santé mentale. Ces médecins conseillent sur la gestion de problèmes spécifiques tels que les troubles de l'alimentation, la consommation de substances et la santé mentale des adolescents. C'est quelque chose que l'entreprise sera intégrée à la plate-forme IA au cours des prochaines semaines.

Avec tout et avec lui, malgré l'initiative OpenAI, plusieurs organisations spécialisées dans la sécurité numérique des enfants ont montré leur scepticisme. Certains maintiennent leur position selon laquelle les enfants de moins de 18 ans ne devraient pas interagir avec les systèmes d'IA sans surveillance directe en raison de ces risques.