Lo que las máquinas no entienden: por qué la IA no razona como tú (ni como nadie)

La promesa de la inteligencia artificial es seductora: máquinas que aprenden, piensan y resuelven problemas mejor que nosotros. O al menos más rápido. Pero una nueva investigación viene a pinchar —con precisión quirúrgica— el globo de esa fantasía: las máquinas no piensan como nosotros. Ni siquiera cerca.
En febrero de 2025, la revista Transactions on Machine Learning Research publicó un estudio que escarba en las entrañas de los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) para poner a prueba algo tan profundamente humano como la analogía. Y el resultado no es precisamente alentador: los humanos ganamos esta ronda. Por goleada.
Cuando "ijkkl" no va a "ijkl"
El equipo liderado por Martha Lewis, profesora de IA neurosimbólica en la Universidad de Ámsterdam, sometió a humanos y modelos como GPT-4 a una serie de pruebas: desde analogías con cadenas de letras (tipo “abcd va a abce, ¿qué pasa con ijkl?”) hasta problemas de matrices numéricas. En lo más simple, los modelos se defendieron. En lo complejo, tropezaron como patinadores sobre alfombra.
- Lectura recomendada:
El gran problema: falta de razonamiento analógico robusto, ese talento invisible que los humanos usamos para navegar desde metáforas poéticas hasta sentencias judiciales. Una persona ve que “abbcd” va a “abcd” y deduce que “ijkkl” debe ir a “ijkl”. GPT-4, en cambio, queda perplejo como un turista sin GPS.
Pensar ≠ Reconocer patrones
El estudio toca un nervio profundo. Las IA modernas son expertas en identificar patrones, pero no en abstraer principios. Son enciclopedias que no comprenden lo que contienen. Lewis lo explica así: “Es menos sobre qué hay en los datos, y más sobre cómo se usan esos datos.”
Aquí hay una antítesis crucial: mientras el cerebro humano puede saltar de un caso específico a una regla general —como quien infiere que no debe cruzar con el semáforo en rojo aunque no haya coches a la vista—, la IA se queda atrapada en el caso específico. Brillante en el reconocimiento, torpe en la generalización.
- Lectura recomendada:
- Lectura recomendada:
¿Y qué importa todo esto?

Mucho. Porque la IA no está encerrada en laboratorios jugando con rompecabezas. Está en juzgados, analizando jurisprudencia. En hospitales, sugiriendo diagnósticos. En gobiernos, evaluando políticas públicas. Y si no entiende bien cómo aplicar una analogía, puede fallar justo donde el contexto lo es todo.
En derecho, por ejemplo, aplicar un precedente mal entendido es como usar un paraguas bajo techo: técnicamente válido, pero completamente fuera de lugar. Y en medicina, la falta de flexibilidad cognitiva puede transformar un patrón útil en un error fatal.
¿El fin de la imitación?
Este estudio no es una condena a la IA, sino una advertencia: si queremos sistemas que realmente colaboren con nosotros, no basta con que sean veloces o precisos. Tienen que ser robustos, capaces de manejar lo inesperado sin colapsar. No solo saber qué pasó mil veces antes, sino saber qué hacer cuando pasa algo por primera vez.
- Lectura recomendada:
- Lectura recomendada:
- Lectura recomendada:
La IA no necesita pensar como nosotros. Pero sí necesita entender cómo pensamos nosotros para poder actuar en consecuencia. De lo contrario, el riesgo no será que las máquinas nos reemplacen, sino que nos arrastren con ellas por no saber cuándo estaban equivocadas.
Por ahora, seguimos siendo —con todas nuestras contradicciones, intuiciones y errores— los únicos que entienden qué significa que "abbcd" se convierta en "abcd". Y eso, aunque parezca un juego de letras, es también una lección sobre lo que aún significa pensar.
Deja una respuesta

Artículos Relacionados