En el momento en que los fondos fluyen de manera frenética hacia el desarrollo de AGI, académicos de Cambridge señalan que la humanidad aún no puede verificar si la IA tiene conciencia, y hacen un llamado a mantener una vigilancia agnóstica antes de que se relaje la regulación.
(Resumen: Cómo usar Vibe Coding en la era de la IA para que Agent te ayude a vigilar el mercado durante la noche)
(Contexto: Altman habla sobre las dificultades de crecimiento de OpenAI: la capacidad de cálculo es la mayor limitación, el aumento de ingresos depende de duplicar constantemente la cantidad de tarjetas gráficas)
Índice del artículo
Dilema de la caja negra: la investigación sobre la conciencia aún no ha avanzado.
Conciencia y capacidad de percepción: dos conceptos confundidos
Proyección emocional y desvío de recursos
Vacío regulatorio y juego de responsabilidades
Los fondos globales están fluyendo hacia el desarrollo de AGI a una velocidad sin precedentes, los gigantes tecnológicos y los capitalistas de riesgo están compitiendo para invertir más, desde la potencia de cálculo, los modelos hasta el talento, en una carrera armamentista completa. El mercado apuesta a que la inteligencia artificial general transformará la productividad y la estructura de los retornos de capital.
Sin embargo, a principios de este mes, el filósofo de la Universidad de Cambridge, Tom McClelland, en un artículo publicado en la revista Mind & Language, advirtió que actualmente hay pocas evidencias científicas que demuestren que la IA tiene conciencia, y que en el futuro podría no haber pruebas durante un largo período de tiempo, por lo que las personas necesitan reflexionar sobre la asignación de recursos.
Si accidentalmente creamos una IA con conciencia o capacidad de percepción, debemos tener cuidado y ser cautelosos para evitar causar daño.
Pero tratar algo que en realidad es solo una tostadora como si fuera un ser consciente, mientras que en el mundo real causamos un daño enorme a las verdaderas formas de vida conscientes, parece también ser un gran error.
Dilema de la caja negra: la investigación sobre la conciencia aún no ha despegado
McClelland señala que la humanidad ni siquiera ha descifrado cómo el cerebro convierte la actividad neuronal en experiencia subjetiva, y mucho menos analizar los miles de millones de parámetros que componen un gran modelo de lenguaje.
Los funcionalistas actuales creen que siempre que la complejidad computacional sea suficiente, la conciencia de alto nivel surgirá naturalmente; mientras que los esencialistas biológicos sostienen que la conciencia es un producto de la vida basada en carbono. Ambas partes carecen de evidencia empírica, y el debate es como un salto de fe en una hipótesis.
Conciencia y capacidad de percepción: dos conceptos confundidos
En la publicidad comercial, las empresas a menudo confunden “conciencia” con “capacidad de percepción”. McClelland señala que la conciencia se refiere únicamente al procesamiento y la reacción a la información externa; la capacidad de percepción implica el placer y el dolor, afectando el estatus moral.
Él advirtió que si la IA es solo un sistema de cálculo, los riesgos éticos son limitados; pero si en el futuro los modelos tienen capacidad de percepción, la humanidad debe reevaluar los límites de la responsabilidad.
La verdadera clave es la capacidad de percepción. Si las máquinas no sienten dolor, en realidad, las personas no necesitan preocuparse por su bienestar.
Proyección emocional y desvío de recursos
Para aumentar la retención de usuarios, muchas empresas tecnológicas actuales han dotado a los chatbots de un tono humanizado, provocando proyecciones emocionales.
McClelland lo llama “veneno existencialista”, ya que la sociedad puede malgastar recursos por ello: esta especulación en torno a la conciencia de la inteligencia artificial tiene implicaciones éticas en la asignación de recursos para la investigación.
Cada vez hay más evidencia de que los camarones pueden sentir dolor, sin embargo, cada año matamos alrededor de quinientos mil millones de camarones.
Probar si los camarones tienen conciencia es ciertamente difícil, pero no tan difícil como probar la conciencia de la inteligencia artificial…
vacío regulatorio y juego de responsabilidades
En un contexto de desregulación, el poder de interpretación sobre si “la IA tiene alma” puede ser fácilmente controlado por las empresas. Cuando se necesita marketing, los operadores pueden afirmar que el modelo tiene autoconciencia; cuando el sistema falla y causa daños, pueden decir que el producto es solo una herramienta, tratando de eludir la responsabilidad. McClelland hace un llamado a los legisladores para establecer un marco de pruebas unificado, trazando una línea clara entre el riesgo y la innovación.
Los mercados de capitales quizás están desplegando la alfombra roja para el “despertar de AGI”, pero antes de que la ciencia pueda validar la capacidad de percepción de la IA, reconocer activamente la ignorancia y mantener una distancia prudente, quizás sea la opción racional.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Filósofos de la Universidad de Cambridge: Es posible que nunca sepamos si la IA tiene conciencia.
En el momento en que los fondos fluyen de manera frenética hacia el desarrollo de AGI, académicos de Cambridge señalan que la humanidad aún no puede verificar si la IA tiene conciencia, y hacen un llamado a mantener una vigilancia agnóstica antes de que se relaje la regulación. (Resumen: Cómo usar Vibe Coding en la era de la IA para que Agent te ayude a vigilar el mercado durante la noche) (Contexto: Altman habla sobre las dificultades de crecimiento de OpenAI: la capacidad de cálculo es la mayor limitación, el aumento de ingresos depende de duplicar constantemente la cantidad de tarjetas gráficas)
Índice del artículo
Los fondos globales están fluyendo hacia el desarrollo de AGI a una velocidad sin precedentes, los gigantes tecnológicos y los capitalistas de riesgo están compitiendo para invertir más, desde la potencia de cálculo, los modelos hasta el talento, en una carrera armamentista completa. El mercado apuesta a que la inteligencia artificial general transformará la productividad y la estructura de los retornos de capital.
Sin embargo, a principios de este mes, el filósofo de la Universidad de Cambridge, Tom McClelland, en un artículo publicado en la revista Mind & Language, advirtió que actualmente hay pocas evidencias científicas que demuestren que la IA tiene conciencia, y que en el futuro podría no haber pruebas durante un largo período de tiempo, por lo que las personas necesitan reflexionar sobre la asignación de recursos.
Dilema de la caja negra: la investigación sobre la conciencia aún no ha despegado
McClelland señala que la humanidad ni siquiera ha descifrado cómo el cerebro convierte la actividad neuronal en experiencia subjetiva, y mucho menos analizar los miles de millones de parámetros que componen un gran modelo de lenguaje.
Los funcionalistas actuales creen que siempre que la complejidad computacional sea suficiente, la conciencia de alto nivel surgirá naturalmente; mientras que los esencialistas biológicos sostienen que la conciencia es un producto de la vida basada en carbono. Ambas partes carecen de evidencia empírica, y el debate es como un salto de fe en una hipótesis.
Conciencia y capacidad de percepción: dos conceptos confundidos
En la publicidad comercial, las empresas a menudo confunden “conciencia” con “capacidad de percepción”. McClelland señala que la conciencia se refiere únicamente al procesamiento y la reacción a la información externa; la capacidad de percepción implica el placer y el dolor, afectando el estatus moral.
Él advirtió que si la IA es solo un sistema de cálculo, los riesgos éticos son limitados; pero si en el futuro los modelos tienen capacidad de percepción, la humanidad debe reevaluar los límites de la responsabilidad.
Proyección emocional y desvío de recursos
Para aumentar la retención de usuarios, muchas empresas tecnológicas actuales han dotado a los chatbots de un tono humanizado, provocando proyecciones emocionales.
McClelland lo llama “veneno existencialista”, ya que la sociedad puede malgastar recursos por ello: esta especulación en torno a la conciencia de la inteligencia artificial tiene implicaciones éticas en la asignación de recursos para la investigación.
vacío regulatorio y juego de responsabilidades
En un contexto de desregulación, el poder de interpretación sobre si “la IA tiene alma” puede ser fácilmente controlado por las empresas. Cuando se necesita marketing, los operadores pueden afirmar que el modelo tiene autoconciencia; cuando el sistema falla y causa daños, pueden decir que el producto es solo una herramienta, tratando de eludir la responsabilidad. McClelland hace un llamado a los legisladores para establecer un marco de pruebas unificado, trazando una línea clara entre el riesgo y la innovación.
Los mercados de capitales quizás están desplegando la alfombra roja para el “despertar de AGI”, pero antes de que la ciencia pueda validar la capacidad de percepción de la IA, reconocer activamente la ignorancia y mantener una distancia prudente, quizás sea la opción racional.