Lo que las máquinas no entienden: por qué la IA no razona como tú (ni como nadie)

Un estudio reciente revela que, aunque las IA reconocen patrones con maestría, siguen sin captar lo esencial del pensamiento humano: la analogía.
Lo que las máquinas no entienden

La promesa de la inteligencia artificial es seductora: máquinas que aprenden, piensan y resuelven problemas mejor que nosotros. O al menos más rápido. Pero una nueva investigación viene a pinchar —con precisión quirúrgica— el globo de esa fantasía: las máquinas no piensan como nosotros. Ni siquiera cerca.

En febrero de 2025, la revista Transactions on Machine Learning Research publicó un estudio que escarba en las entrañas de los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) para poner a prueba algo tan profundamente humano como la analogía. Y el resultado no es precisamente alentador: los humanos ganamos esta ronda. Por goleada.

Índice

Cuando "ijkkl" no va a "ijkl"

El equipo liderado por Martha Lewis, profesora de IA neurosimbólica en la Universidad de Ámsterdam, sometió a humanos y modelos como GPT-4 a una serie de pruebas: desde analogías con cadenas de letras (tipo “abcd va a abce, ¿qué pasa con ijkl?”) hasta problemas de matrices numéricas. En lo más simple, los modelos se defendieron. En lo complejo, tropezaron como patinadores sobre alfombra.

El gran problema: falta de razonamiento analógico robusto, ese talento invisible que los humanos usamos para navegar desde metáforas poéticas hasta sentencias judiciales. Una persona ve que “abbcd” va a “abcd” y deduce que “ijkkl” debe ir a “ijkl”. GPT-4, en cambio, queda perplejo como un turista sin GPS.

Pensar ≠ Reconocer patrones

El estudio toca un nervio profundo. Las IA modernas son expertas en identificar patrones, pero no en abstraer principios. Son enciclopedias que no comprenden lo que contienen. Lewis lo explica así: “Es menos sobre qué hay en los datos, y más sobre cómo se usan esos datos.”

Aquí hay una antítesis crucial: mientras el cerebro humano puede saltar de un caso específico a una regla general —como quien infiere que no debe cruzar con el semáforo en rojo aunque no haya coches a la vista—, la IA se queda atrapada en el caso específico. Brillante en el reconocimiento, torpe en la generalización.

¿Y qué importa todo esto?

ia y los humanos

Mucho. Porque la IA no está encerrada en laboratorios jugando con rompecabezas. Está en juzgados, analizando jurisprudencia. En hospitales, sugiriendo diagnósticos. En gobiernos, evaluando políticas públicas. Y si no entiende bien cómo aplicar una analogía, puede fallar justo donde el contexto lo es todo.

En derecho, por ejemplo, aplicar un precedente mal entendido es como usar un paraguas bajo techo: técnicamente válido, pero completamente fuera de lugar. Y en medicina, la falta de flexibilidad cognitiva puede transformar un patrón útil en un error fatal.

¿El fin de la imitación?

Este estudio no es una condena a la IA, sino una advertencia: si queremos sistemas que realmente colaboren con nosotros, no basta con que sean veloces o precisos. Tienen que ser robustos, capaces de manejar lo inesperado sin colapsar. No solo saber qué pasó mil veces antes, sino saber qué hacer cuando pasa algo por primera vez.

La IA no necesita pensar como nosotros. Pero sí necesita entender cómo pensamos nosotros para poder actuar en consecuencia. De lo contrario, el riesgo no será que las máquinas nos reemplacen, sino que nos arrastren con ellas por no saber cuándo estaban equivocadas.

Por ahora, seguimos siendo —con todas nuestras contradicciones, intuiciones y errores— los únicos que entienden qué significa que "abbcd" se convierta en "abcd". Y eso, aunque parezca un juego de letras, es también una lección sobre lo que aún significa pensar.

¡Suscríbete al boletín de Mundo Ciencia!

Recibe actualizaciones sobre las últimas publicaciones y más de Mundo Ciencia directamente en tu bandeja de entrada.

¡No hacemos spam! Más información en nuestra política de privacidad

Artículos Relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir