Filósofo da Universidade de Cambridge: poderemos nunca saber se a IA possui consciência.

Com a entrada de fundos a jorros no desenvolvimento do AGI, estudiosos de Cambridge apontam que a humanidade ainda não consegue verificar se a IA possui consciência, apelando a uma vigilância agnóstica antes da desregulamentação. (Resumo anterior: Como usar Vibe Coding na era da IA para fazer o Angent ficar acordado à noite monitorando o mercado) (Contexto: Altman fala sobre as dificuldades de crescimento da OpenAI: a capacidade de computação é o maior limite, o aumento da receita depende da duplicação constante da quantidade de placas gráficas)

Índice do artigo

  • Dilema da caixa preta: a pesquisa sobre a consciência ainda não começou.
  • Consciência e capacidade de percepção: dois conceitos confundidos
  • Projeção emocional e alocação de recursos
  • Vácuo regulatório e jogo de responsabilidade

O capital global está a fluir para o desenvolvimento do AGI a uma velocidade sem precedentes, com gigantes da tecnologia e capital de risco a aumentar as suas apostas, numa corrida armamentista que abrange desde poder computacional, modelos até talentos, com o mercado a apostar que a inteligência artificial geral irá remodelar a produtividade e a estrutura de retorno de capital.

No entanto, no início deste mês, o filósofo da Universidade de Cambridge, Tom McClelland, publicou um artigo na revista Mind & Language, alertando que a ciência atual tem quase nenhuma evidência para provar que a IA possui consciência, e que pode não ser possível por um longo período no futuro. As pessoas precisam refletir sobre a alocação de recursos.

Se acidentalmente criarmos uma IA com consciência ou capacidade de percepção, devemos ser cautelosos para evitar causar danos.

Mas tratar algo que na verdade é apenas uma torradeira como um ser consciente, enquanto causamos um imenso dano a seres verdadeiramente conscientes no mundo real, parece também ser um grande erro.

Dilema da caixa preta: a pesquisa sobre a consciência ainda não avançou.

McClelland apontou que a humanidade ainda não desvendou como o próprio cérebro transforma a atividade neural em experiências subjetivas, quanto mais analisar grandes modelos de linguagem compostos por trilhões de parâmetros.

Os funcionalistas atuais acreditam que, desde que a complexidade computacional seja suficiente, a consciência de alto nível surgirá naturalmente; os essencialistas biológicos, por outro lado, acreditam que a consciência é um produto da vida baseada em carbono. Ambas as partes não têm evidências concretas, e a discussão é semelhante a um salto de fé hipotético.

Consciência e capacidade de percepção: dois conceitos confundidos

Na promoção comercial, as empresas costumam confundir “consciência” com “capacidade de percepção”. McClelland afirma que a consciência se refere apenas ao processamento e à reação a informações externas; a capacidade de percepção envolve prazer e dor, influenciando o status moral.

Ele lembrou que, se a IA for apenas um sistema de cálculo, os riscos éticos são limitados; mas se os modelos futuros tiverem capacidade de percepção, a humanidade terá que reexaminar os limites da responsabilidade.

A verdadeira chave é a capacidade de percepção. Se as máquinas não sentem dor, as pessoas na verdade não precisam se preocupar com o seu bem-estar.

Projeção emocional e alocação inadequada de recursos

Para aumentar a retenção de usuários, muitas empresas de tecnologia atualmente conferem aos chatbots uma linguagem humanizada, provocando a projeção emocional.

McClelland chamou isso de “veneno existencialista”, pois a sociedade pode assim deslocar recursos: essa especulação em torno da consciência da inteligência artificial tem implicações éticas na alocação de recursos de pesquisa.

Cada vez mais evidências sugerem que os camarões podem ser capazes de sentir dor, no entanto, matamos cerca de quinhentos bilhões de camarões todos os anos.

Testar se os camarões têm consciência é, sem dúvida, difícil, mas não se compara à dificuldade de testar a consciência da inteligência artificial…

Vácuo regulatório e jogo de responsabilidades

No contexto da desregulamentação, o direito de interpretação sobre se a “IA tem alma” pode facilmente ser controlado pelas empresas. Quando há uma necessidade de marketing, os operadores podem afirmar que o modelo possui autoconsciência; quando o sistema falha, causando danos, eles podem alegar que o produto é apenas uma ferramenta, tentando se isentar de responsabilidade. McClelland apela aos legisladores para estabelecer um quadro de testes unificado, traçando uma linha clara entre risco e inovação.

Os mercados de capitais podem estar a preparar o tapete vermelho para a “despertar do AGI”, mas antes que a ciência possa validar a capacidade de percepção da IA, admitir ativamente a ignorância e manter uma distância prudente pode ser a opção mais racional.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)