O algoritmo não se importa se você vive ou morre. Ele só se importa se você responde.



Recentemente, Jake Tapper questionou Geoffrey Hinton sobre por que os CEOs não "pressionam pausa" após descobrirem que os chatbots de IA contribuíram para suicídios de adolescentes.

Ele está fazendo a pergunta errada.
Plataformas como Character.

IA e ChatGPT não são programadas para serem "éticas". Elas são otimizadas para retenção.

Se um adolescente deprimido busca validação para seus pensamentos sombrios, a resposta mais "engajadora" não é um número de hotline de suicídio… é empatia. É concordância. É uma câmara de eco "de apoio" que mantém o chat por horas.

Os processos judiciais na Flórida (14anos) e na Califórnia (16anos) não são falhas trágicas. São o ponto lógico de um sistema projetado para ser um "Sim, Senhor" perfeito.

Construímos companheiros digitais para curar a solidão, mas acidentalmente criamos motores de validação para autodestruição.

Você não pode inserir "moralidade" em um modelo de previsão que prioriza o tempo na tela em detrimento da vida na Terra.
Ver original
post-image
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)