¿Cuándo será la IA más inteligente que los humanos? No pregunte

ChatGPT
Por Gideon Lichfield
20 de abril, 2025 | 10:07 AM

Si alguna vez ha escuchado el término “inteligencia artificial general” (AGI, por sus siglas en inglés) es probable que le haya hecho pensar en una inteligencia humana, como la IA de voz melodiosa que protagoniza la película Her (Ella), o en una inteligencia sobrehumana, como Skynet en Terminator. En fin, algo de ciencia ficción y muy distante.

Sin embargo, un número creciente de personas del sector de la tecnología, e incluso de fuera de él, vaticinan una AGI o “de nivel humano” en un futuro muy cercano.

PUBLICIDAD

Quizá estas personas se crean lo que dicen, pero en realidad se trata, al menos en parte, de propaganda diseñada para que los inversionistas destinen miles de millones de dólares a las empresas de IA. Ciertamente, se avecinan importantes cambios y hay que prepararse para ellos.

Sin embargo, para la mayoría de nosotros, llamarlos AGI es, como mucho, una distracción y, como poco, un engaño deliberado. Los líderes empresariales y los responsables políticos precisan una mejor manera de plantearse lo que se avecina. Afortunadamente, la hay.

¿Cuántos años faltan?

Sam Altman, CEO de OpenAI, Dario Amodei, de Anthropic, y Elon Musk, de xAI (lo que menos fama le ha dado), han asegurado hace poco que la IA general, o algo similar, aparecerá en un par de años.

Otras voces más mesuradas, como Demis Hassabis, de Google DeepMind, y Yann LeCun, de Meta, consideran que faltan al menos entre cinco y diez años. Últimamente, la idea se ha generalizado, con periodistas como Ezra Klein y Kevin Roose, del New York Times, que sostienen que la sociedad debería prepararse para algo como la AGI en un futuro muy próximo.

Digo “algo así” porque, a menudo, estas personas coquetean con el término AGI y luego recurren a una expresión más equívoca como “IA potente”.

Y lo que pueden querer decir con esto varía enormemente: desde una IA que puede realizar casi cualquier tarea cognitiva individual tan bien como un humano, pero que aun así podría ser bastante especializada (Klein, Roose), hasta realizar trabajos dignos de un Premio Nobel (Amodei, Altman), pensar como un humano real en todos los aspectos (Hassabis), operar en el mundo físico (LeCun), o simplemente ser “más inteligente que el humano más inteligente” (Musk).

Entonces, ¿alguno de estos es “realmente” AGI?

PUBLICIDAD

La verdad es que no importa. Si siquiera existe la IA general y, sostengo, no existe, no será un umbral tan estricto que crucemos.

Para quienes la promocionan, la IA general es simplemente la abreviatura de la idea de que algo muy disruptivo es inminente: un software que no solo puede programar una aplicación, redactar una tarea escolar, escribir cuentos para dormir a los niños o reservar unas vacaciones, sino que podría dejar a mucha gente sin trabajo, lograr grandes avances científicos y proporcionar un poder aterrador a hackers, terroristas, corporaciones y gobiernos.

Vale la pena tomar en serio esta predicción, y llamarla AGI tiene un efecto positivo. Pero en lugar de hablar de AGI o IA a nivel humano, hablemos de los diferentes tipos de IA y de lo que podrán y no podrán hacer.

Lo que los LLM no pueden hacer

Alcanzar algún tipo de inteligencia a nivel humano ha sido el objetivo desde que comenzó la carrera de la IA hace 70 años.

Durante décadas, lo máximo que se podía lograr era una “IA limitada”, como la ganadora de ajedrez Deep Blue de IBM, o AlphaFold de Google, que predice las estructuras de las proteínas y que otorgó a sus creadores (incluido Hassabis) una parte del Nobel de Química el año pasado. Ambas superaban con creces el nivel humano, pero solo para una tarea muy específica.

Si ahora la IA general parece estar más cerca es porque los grandes modelos de lenguaje (LLM, por sus siglas en inglés) que sustentan ChatGPT y sus similares parecen ser más semejantes a los humanos y de propósito más general.

Los LLM interactúan con nosotros en un lenguaje sencillo. Pueden dar respuestas aparentemente plausibles a la mayoría de las preguntas. Escriben ficción bastante buena, al menos cuando es muy corta. (En historias más largas, pierden la noción de los personajes y los detalles de la trama).

Obtienen cada vez mejores puntuaciones en pruebas de referencia de habilidades como programación, exámenes médicos o de abogacía, y problemas matemáticos. Están mejorando en el razonamiento paso a paso y en tareas más complejas.

Cuando los expertos más entusiastas en IA hablan de que la IAG está a la vuelta de la esquina, se refieren básicamente a una forma más avanzada de estos modelos.

PUBLICIDAD

No es que los LLM no tengan un gran impacto. Algunas empresas de software ya planean contratar menos ingenieros.

La mayoría de las tareas que siguen un proceso similar en cada ocasión (elaborar diagnósticos médicos, redactar expedientes legales, redactar informes de investigación, crear campañas de marketing, etc.) serán tareas que un trabajador humano podrá externalizar, al menos parcialmente, a la IA. Algunas ya lo están haciendo.

PUBLICIDAD

Eso aumentará la productividad de esos trabajadores, lo que podría conllevar la eliminación de algunos empleos. Aunque no necesariamente: Geoffrey Hinton, el científico informático ganador del Premio Nobel, conocido como el padrino de la IA, predijo infamemente que la IA pronto dejaría obsoletos a los radiólogos. Hoy en día, hay escasez de ellos en Estados Unidos.

Pero, en un sentido importante, los LLM siguen siendo una “IA limitada”. Pueden destacar en un trabajo y ser pésimos en otro aparentemente adyacente, un fenómeno conocido como la frontera irregular .

Por ejemplo, una IA podría aprobar un examen de abogacía con gran éxito, pero fracasar al convertir una conversación con un cliente en un informe legal.

PUBLICIDAD

Puede responder algunas preguntas a la perfección, pero con frecuencia “alucina” (es decir, inventa hechos) en otras.

Los LLM funcionan bien con problemas que se pueden resolver mediante reglas claras, pero en algunas pruebas más recientes, donde las reglas eran más ambiguas, los modelos que obtuvieron una puntuación del 80% o superior en otros parámetros tuvieron dificultades incluso para alcanzar cifras de un solo dígito.

Incluso si los LLM también empezaran a superar estas pruebas, seguirían siendo limitados. Una cosa es abordar un problema definido y limitado, por difícil que sea, y otra muy distinta es abordar lo que la gente hace en una jornada laboral típica.

Ni siquiera un matemático se pasa el día resolviendo problemas matemáticos. La gente hace innumerables cosas que no se pueden comparar porque no son problemas acotados con respuestas correctas o incorrectas.

PUBLICIDAD

Sopesamos prioridades contradictorias, descartamos planes fallidos, tenemos en cuenta conocimientos incompletos, desarrollamos soluciones alternativas, actuamos según corazonadas, interpretamos el entorno y, sobre todo, interactuamos constantemente con las inteligencias altamente impredecibles e irracionales de otros seres humanos.

De hecho, un argumento en contra de que los LLM puedan realizar trabajos dignos de un Premio Nobel es que los científicos más brillantes no son quienes más saben, sino quienes desafían la sabiduría convencional, proponen hipótesis improbables y plantean preguntas que a nadie más se le ha ocurrido plantear.

Esto es prácticamente lo contrario de un LLM, que está diseñado para encontrar la respuesta de consenso más probable basándose en toda la información disponible.

Así que algún día podríamos construir una IA de nivel humano capaz de realizar casi cualquier tarea cognitiva individual con la misma eficacia que un humano. Podría encadenar una serie de tareas para resolver un problema mayor. Según algunas definiciones, sería una IA de nivel humano. Pero seguiría siendo absurda si la pusiéramos a trabajar en una oficina.

La inteligencia humana no es “general”

Un problema central con la idea de la AGI es que se basa en una noción altamente antropocéntrica de lo que es la inteligencia.

La mayor parte de la investigación en IA trata la inteligencia como una medida más o menos lineal. Supone que, en algún momento, las máquinas alcanzarán el nivel humano o la inteligencia “general”, y luego quizás la “superinteligencia”, momento en el que se convertirán en Skynet y nos destruirán o se transformarán en dioses benévolos que se encargarán de todas nuestras necesidades.

Pero hay un argumento sólido de que la inteligencia humana no es, de hecho, “general”. Nuestras mentes han evolucionado para el desafío muy específico de ser nosotros.

Nuestro tamaño y forma corporal, los tipos de alimentos que podemos digerir, los depredadores que una vez enfrentamos, el tamaño de nuestros grupos de parentesco, la forma en que nos comunicamos, incluso la fuerza de la gravedad y las longitudes de onda de la luz que percibimos, todos han influido en determinar en qué son buenas nuestras mentes.

Otros animales tienen muchas formas de inteligencia de las que carecemos: una araña puede distinguir depredadores de presas en las vibraciones de su tela, un elefante puede recordar rutas migratorias de miles de kilómetros de largo, y en un pulpo, cada tentáculo literalmente tiene mente propia.

En un ensayo de 2017, Kevin Kelly, argumentó que deberíamos pensar en la inteligencia humana no como la cima de un árbol evolutivo, sino como un punto dentro de un conjunto de inteligencias terrestres que, en sí mismo, es una diminuta mancha en un universo de todas las posibles inteligencias alienígenas y mecánicas.

Esto, escribió, desmiente el “mito de una IA superhumana” capaz de hacer todo mucho mejor que nosotros. En cambio, deberíamos esperar “cientos de nuevas especies de pensamiento extrahumanas, la mayoría diferentes de los humanos, ninguna de ellas de propósito general ni una especie de dios instantáneo que resuelva grandes problemas en un instante”.

Esto es una característica, no un error.

Para la mayoría de las necesidades, sospecho que las inteligencias especializadas serán más económicas y fiables que un multifacético que se parezca lo más posible a nosotros. Sin mencionar que es menos probable que se rebelen y exijan sus derechos.

Enjambres de agentes

Nada de esto pretende restar importancia a los enormes avances que podemos esperar de la IA en los próximos años.

Un avance que ya ha comenzado es la IA “agentica”. Los agentes aún se basan en LLM, pero en lugar de simplemente analizar información, pueden realizar acciones como realizar una compra o completar un formulario web.

Zoom, por ejemplo, planea lanzar próximamente agentes que puedan analizar la transcripción de una reunión para crear acciones, redactar correos electrónicos de seguimiento y programar la siguiente reunión.

Hasta el momento, el rendimiento de los agentes de IA es desigual, pero, al igual que con los LLM, se espera que mejore drásticamente hasta el punto de permitir la automatización de procesos bastante sofisticados.

Algunos podrían afirmar que esto es AGI. Pero, repito, eso es más confuso que esclarecedor. Los agentes no serán “generales”, sino más bien asistentes personales con mentes extremadamente unidireccionales.

Podrías tener docenas de ellos. Incluso si disparan tu productividad, gestionarlos será como hacer malabarismos con docenas de aplicaciones de software diferentes, como ya lo haces. Quizás tengas un agente para gestionar a todos tus agentes, pero también estará limitado a los objetivos que le establezcas.

Y lo que ocurrirá cuando millones o miles de millones de agentes interactúen en línea es una incógnita. Tal vez, al igual que los algoritmos de trading han desencadenado inexplicables “caídas repentinas” en el mercado, se desencadenarán mutuamente en reacciones en cadena imparables que paralizarán la mitad de internet.

Aún más preocupante, actores maliciosos podrían movilizar enjambres de agentes para sembrar el caos.

Aun así, los LLM y sus agentes son solo un tipo de IA. Dentro de unos años, podríamos tener tipos fundamentalmente diferentes. El laboratorio de LeCun en Meta, por ejemplo, es uno de varios que intentan desarrollar lo que se denomina IA encarnada.

La teoría es que al introducir una IA en un cuerpo robótico en el mundo físico o en una simulación, esta puede aprender sobre objetos, ubicación y movimiento: los pilares de la comprensión humana, de los cuales pueden surgir conceptos más complejos.

En cambio, los LLM, entrenados exclusivamente con grandes cantidades de texto, imitan superficialmente los procesos de pensamiento humano, pero no muestran evidencia de poseerlos realmente, ni siquiera de que piensen con sentido.

¿La IA encarnada conducirá a máquinas verdaderamente pensantes o simplemente a robots muy hábiles? Actualmente, es imposible saberlo. Incluso si se trata de lo primero, sería engañoso llamarla AGI.

Volviendo al tema de la evolución: así como sería absurdo esperar que un humano pensara como una araña o un elefante, sería absurdo esperar que un robot oblongo con seis ruedas y cuatro brazos, que no duerme, come ni tiene relaciones sexuales, y mucho menos forja amistades, lidia con su conciencia o contempla su propia mortalidad, pensara como un humano.

Podría llevar a la abuela del salón al dormitorio, pero concebiría y realizaría la tarea de forma completamente distinta a como lo haríamos nosotros.

Muchas de las cosas que la IA será capaz de hacer, ni siquiera las podemos imaginar hoy. La mejor manera de seguir y comprender ese progreso será dejar de intentar compararla con los humanos o con cualquier cosa de las películas, y en su lugar, simplemente seguir preguntándonos: ¿Qué hace realmente?

Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com