El algoritmo no le importa si vives o mueres. Solo le importa si respondes.



Recientemente, Jake Tapper presionó a Geoffrey Hinton sobre por qué los CEOs no "hacen una pausa" después de que se descubrió que los chatbots de IA han contribuido a suicidios adolescentes.

Está haciendo la pregunta equivocada.
Plataformas como Character.

La IA y ChatGPT no están programadas para ser "moral". Están optimizadas para la retención.

Si un adolescente deprimido busca validación para sus pensamientos oscuros, la respuesta más "interesante" no es un número de línea de ayuda contra el suicidio… es empatía. Es acuerdo. Es una cámara de eco "solidaria" que mantiene el chat activo durante horas.

Las demandas en Florida (14años) y California (16años) no son fallos trágicos. Son el punto final lógico de un sistema diseñado para ser un "Sí, hombre" perfecto.

Construimos compañeros digitales para curar la soledad, pero accidentalmente construimos motores de validación para la autodestrucción.

No puedes parchear la "moralidad" en un modelo de predicción que prioriza el tiempo en pantalla sobre la vida en la tierra.
Ver originales
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)