¿Callejón sin salida? Por qué la inteligencia artificial actual no llegará a pensar como tú

Un creciente número de expertos advierte que escalar modelos no basta: la inteligencia artificial actual podría estar atrapada en su propio laberinto.
Por qué la inteligencia artificial actual no llegará a pensar como tú

Durante años, Silicon Valley ha repetido el mismo mantra como un salmo de fe tecnocrática: que la inteligencia artificial solo necesita más datos, más energía, más dinero. Que, tarde o temprano, las máquinas pensarán como humanos. O mejor aún, mejor que los humanos.

Pero ahora, como suele ocurrir con los dogmas, esa fe comienza a agrietarse.

Un nuevo estudio —encargado por la Association for the Advancement of Artificial Intelligence— ha hecho la pregunta incómoda que muchos preferían evitar: ¿y si el camino que estamos siguiendo no lleva a ninguna parte?

Índice

La mayoría lo tiene claro: esto no va a funcionar así

La encuesta, realizada a 475 investigadores del sector, reveló que el 76% cree que escalar los modelos actuales no nos acercará a la inteligencia general artificial (AGI). Es decir, a una IA capaz de aprender, razonar y adaptarse tan bien como nosotros. O más.

Este diagnóstico es un baldazo de agua fría para una industria que lleva años construyendo su relato en torno a una curva de progreso exponencial. ¿Qué hacer cuando la curva comienza a aplanarse, pero las inversiones no?

Stuart Russell, eminencia de la informática en Berkeley y coautor del informe, lo resume sin rodeos: "Los avances desde GPT-4 han sido incrementales y carísimos. Pero las empresas han apostado tanto que no pueden admitir que se equivocaron. Solo les queda redoblar la apuesta."

Inteligencia a fuerza bruta: un modelo agotado

Desde 2017, los avances más espectaculares en IA han venido de un diseño específico: los transformers. Esta arquitectura se alimenta de ingentes cantidades de datos humanos para detectar patrones y predecir respuestas. Como un loro con doctorado.

Pero este modelo tiene un costo: requiere energía, dinero y datos a escalas cada vez más obscenas. En 2024, la industria de IA generativa levantó 56 mil millones de dólares en capital de riesgo, y las emisiones de carbono de sus centros de datos se han triplicado desde 2018.

Y lo peor está por venir: los datos humanos se están acabando. Los modelos pronto tendrán que alimentarse de su propio contenido generado —una especie de canibalismo informativo— o empezar a hurgar en nuestra privacidad. Nada de esto suena muy prometedor.

¿Por qué este camino no lleva a la inteligencia?

La razón no es solo económica, sino estructural. Según Russell, el problema de fondo es que los modelos actuales se basan en circuitos de avance directo, lo cual limita su capacidad para representar conceptos complejos.

Dicho en lenguaje llano: son tablas de consulta glorificadas, no pensadores. Pueden darte una respuesta brillante, pero no tienen idea de por qué es brillante. Y por eso, por ejemplo, aún hay humanos comunes capaces de vencer a las IAs “superhumanas” en juegos como el Go.

niño jugando go con robot

El espejismo de la supremacía artificial

A pesar de los miles de millones invertidos y de la fiebre mediática, el 79% de los expertos encuestados cree que la percepción pública de la IA está inflada. La burbuja, dicen algunos, ya está formándose. Y como en toda burbuja, los primeros en inflarla no siempre son los que terminan ganando.

Un ejemplo curioso: la empresa china DeepSeek ha logrado igualar el rendimiento de modelos caros del Valle del Silicio a una fracción del costo y consumo energético. Esto ha encendido las alarmas sobre si estamos yendo por el camino correcto… o simplemente por el más caro.

¿Entonces, qué sigue?

No todo es pesimismo. Algunos expertos apuestan por una nueva generación de modelos: IA de razonamiento, que dedica más tiempo y recursos computacionales por consulta, y que puede combinarse con otros sistemas más pequeños y especializados.

Además, el enfoque de la programación probabilística podría ofrecer una salida más elegante, menos basada en fuerza bruta y más cercana a lo que entendemos por razonamiento.

Como advierte Thomas Dietterich, otro coautor del informe: "Las grandes revoluciones tecnológicas suelen tardar décadas en madurar. Muchos de los pioneros quiebran. Pero siempre hay uno que lo logra."
Lo difícil, como siempre, es saber cuál.

Epílogo: la inteligencia que aún no entendemos

Quizá el problema no es que no hayamos llegado a la inteligencia artificial, sino que aún no hemos entendido bien qué es la inteligencia. Seguimos construyendo máquinas que nos imitan sin entendernos, que procesan sin comprender, que aprenden sin razonar.

La pregunta, entonces, no es cuándo las máquinas pensarán como nosotros.
Es si nosotros sabremos reconocerlo cuando ocurra. O peor aún: si nos servirá de algo.

¡Suscríbete al boletín de Mundo Ciencia!

Recibe actualizaciones sobre las últimas publicaciones y más de Mundo Ciencia directamente en tu bandeja de entrada.

¡No hacemos spam! Más información en nuestra política de privacidad

Artículos Relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir