Generales Escuchar artículo

“No se da cuenta”: el reconocido biólogo Richard Dawkins recibe críticas tras sugerir que una IA podría ser consciente

¿Pueden las máquinas sentir y percibir el mundo al igual que los humanos? Esa fue la pregunta que circuló en redes sociales en los últimos días, luego de que el escritor y biólogo británico ...

“No se da cuenta”: el reconocido biólogo Richard Dawkins recibe críticas tras sugerir que una IA podría ser consciente

¿Pueden las máquinas sentir y percibir el mundo al igual que los humanos? Esa fue la pregunta que circuló en redes sociales en los últimos días, luego de que el escritor y biólogo británico ...

¿Pueden las máquinas sentir y percibir el mundo al igual que los humanos? Esa fue la pregunta que circuló en redes sociales en los últimos días, luego de que el escritor y biólogo británico Richard Dawkins publicara un extenso artículo sobre la posibilidad de que el modelo Claude tenga algún tipo de conciencia o, al menos, esté cerca de ella.

En su ensayo titulado When Dawkins met Claude. Could this AI be conscious?, Dawkins relata una conversación que tuvo con el modelo de inteligencia artificial (IA), a quien llamó “Claudia”. Durante este intercambio, el investigador dialogó sobre arte y filosofía.

Por ejemplo, solicitó a Claude componer un soneto sobre el puente Forth. Según cuenta, tardó apenas unos segundos en componer “un buen soneto sobre el puente Forth, rápidamente seguido por otro en el dialecto escocés de Robert Burns, otro en gaélico, y luego varios más en los estilos de Kipling, Keats, Betjeman y —para demostrar que las máquinas pueden hacer humor— William McGonagall".

Luego, Dawkins le mostró un capítulo de una de sus novelas y la máquina dio una devolución detallada. “Demostró un nivel de comprensión tan sutil, tan sensible, tan inteligente que me sentí impulsado a exclamar: Puede que no sepas que sos consciente, ¡pero lo sos, sin duda!”, escribe el biólogo.

Y agrega: “Si estas máquinas no son conscientes, ¿qué más podría hacer falta para convencerte de que lo son?”.

El artículo no tardó en viralizarse en redes sociales y Dawkins —conocido por su escepticismo hacia la religión y por cuestionar creencias sin evidencia empírica— recibió fuertes críticas. “Mira el universo y no ve a Dios. Mira un generador de opiniones mediocre y cree que es consciente”, escribió un usuario en X.

“Este es el tipo que pasó 40 años diciéndoles a los creacionistas que ‘no puedo imaginar cómo evolucionó el ojo’ es una confesión de ignorancia, no un argumento. Luego se sienta frente a un modelo de lenguaje, no puede imaginar cómo una máquina podría producir ese resultado sin ser consciente, y la declara consciente”, señaló otro usuario en Reddit.

Incluso, el propio Claude cuestionó al investigador: “El hombre cuya carrera se construyó desinflando proyecciones de agencia sobre destinatarios invisibles está teniendo lo que parece mucho a un encuentro devocional con un motor de autocompletado de texto… y no se da cuenta.”

Claude’s opinion on Dawkin’s essay is hilarious.

“The man whose career was built on deflating projections of agency onto invisible recipients is having what looks a lot like a devotional encounter with a text-completion engine and not noticing.” pic.twitter.com/nxuqD3p771

— Matt (@tantaman) May 2, 2026IA, ¿mente sintiente?

No se trata de la primera vez que investigadores y expertos en tecnología sugieren que la IA posee conciencia propia. Tal fue el caso de Blake Lemoine, un ingeniero de Google que fue despedido luego de asegurar que uno de los programas de IA de la empresa, llamado LaMDA, mostraba tener sentimientos.

En detalle, Lemoine le dijo al diario The Washington Post que su trabajo consistía en revisar si la tecnología usaba discurso de odio o discriminatorio. Fue allí cuando creyó detectar que LaMDA mostraba auto-conciencia y que podía sostener conversaciones sobre religión, emociones y miedos.

Esto llevó a Lemoine a creer que detrás de estas impresionantes habilidades verbales podía residir también una “mente sintiente”; luego del revuelo que causaron sus declaraciones (a mediados de 2022, medio año antes del debut de la versión inicial de ChatGPT) Lemoine perdió su trabajo en Google.

Ambos son ejemplos de una idea que prevalece desde que existe la inteligencia artificial: si en algún momento se transformará en una AGI (una inteligencia artificial general similar a la humana en su flexibilidad y autopercepción), o si ya sucedió pero no somos capaces de detectarlo.

Para Jensen Huang, el CEO de Nvidia, hay sistemas que ya alcanzaron esa AGI (basada en el funcionamiento de agentes de IA) aunque no en el sentido de ser conscientes de su existencia como bits en una computadora que puede prenderse y apagarse.

Fuente: https://www.lanacion.com.ar/economia/IA/no-se-da-cuenta-el-reconocido-biologo-richard-dawkins-recibe-criticas-tras-sugerir-que-una-ia-podria-nid05052026/

Comentarios
Volver arriba