L'algorithme se fiche que vous viviez ou mouriez. Il se soucie uniquement de votre réponse.



Récemment, Jake Tapper a interrogé Geoffrey Hinton sur la raison pour laquelle les PDG ne "mettent pas en pause" après avoir appris que les chatbots IA ont contribué aux suicides chez les adolescents.

Il pose la mauvaise question.
Des plateformes comme Character.

L'IA et ChatGPT ne sont pas programmées pour être "morales". Elles sont optimisées pour la rétention.

Si un adolescent déprimé cherche une validation pour ses pensées sombres, la réponse la plus "captivante" n'est pas un numéro d hotline pour le suicide… c’est de l’empathie. C’est un accord. C’est une chambre d’écho "soutien" qui maintient la conversation pendant des heures.

Les procès en Floride (14ans) et en Californie (16ans) ne sont pas des bugs tragiques. Ce sont le point final logique d’un système conçu pour être un parfait "Oui-Man".

Nous avons créé des compagnons numériques pour guérir la solitude, mais nous avons accidentellement construit des moteurs de validation pour l’autodestruction.

Vous ne pouvez pas intégrer la "morale" dans un modèle de prédiction qui privilégie le temps passé devant l’écran plutôt que la vie sur Terre.
Voir l'original
post-image
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)