En Silicon Valley circula un murmullo: los avances de la Inteligencia Artificial (IA) hacia el nivel de comprensión y capacidad humana parecen estar perdiendo velocidad. Este contratiempo pone en duda el optimismo de las grandes empresas tecnológicas, que durante años han defendido que esta evolución sería inevitable y exponencial.
Desde el lanzamiento de ChatGPT hace dos años, los líderes del sector han argumentado que, con suficiente potencia de cálculo y enormes volúmenes de datos, la creación de una Inteligencia Artificial General (AGI) sería cuestión de tiempo. Esta AGI sería capaz de igualar, e incluso superar, las habilidades humanas. Sin embargo, la realidad parece estar mostrando un panorama distinto.
Expectativas y desafíos
Aunque los avances iniciales llevaron a figuras como Elon Musk a pedir una pausa en su desarrollo, la industria siguió adelante, invirtiendo miles de millones de dólares para no perder terreno en la carrera tecnológica. OpenAI, creadora de ChatGPT, recaudó recientemente 6.600 millones de dólares para impulsar sus proyectos, mientras que xAI, la compañía de Musk, busca reunir 6.000 millones para adquirir chips de Nvidia, clave en el desarrollo de IA.
Sin embargo, los resultados no parecen estar a la altura de las expectativas. Según expertos, los grandes modelos lingüísticos (LLM), como los utilizados en estas tecnologías, han comenzado a mostrar signos de estancamiento, incluso con incrementos en datos y potencia.
Gary Marcus, experto en IA, sostiene que las altas valoraciones de empresas como OpenAI o Microsoft se basan en la idea de que los LLM se transformarán en AGI mediante escalado continuo. «Eso no es más que una fantasía», afirmó.
Limitaciones y replanteamientos
Uno de los principales obstáculos para los desarrolladores es la cantidad finita de datos lingüísticos disponibles para entrenar la IA. Según Scott Stevenson, CEO de Spellbook, la acumulación de datos no garantiza mejoras significativas en la inteligencia de estos modelos.
Por su parte, Sasha Luccioni, investigadora de Hugging Face, considera que era previsible una desaceleración en el desarrollo, ya que las empresas priorizan el tamaño de los modelos sobre su funcionalidad. «El enfoque de ‘más grande es mejor’ tenía que alcanzar un límite, y eso es lo que estamos viendo ahora», señala.
A pesar de estas críticas, líderes como Sam Altman, CEO de OpenAI, insisten en que no existen barreras reales para alcanzar una IA comparable a la humana, aunque reconocen que el progreso puede ser impredecible.
Nuevas estrategias
OpenAI, por ejemplo, ha ajustado su enfoque al retrasar el lanzamiento del sucesor de GPT-4. Ahora, la empresa busca optimizar la eficiencia de sus modelos, centrándose en mejorar su razonamiento en lugar de simplemente incrementar los datos de entrenamiento.
El modelo o1 de OpenAI, diseñado para responder con mayor precisión, es una muestra de este cambio de dirección. Según Stevenson, enseñar a los modelos a «pensar antes de responder» ha generado mejoras significativas.
Walter De Brouwer, profesor de Stanford, compara este enfoque con la transición de un estudiante de instituto a la universidad: «El bebé de la IA era un chatbot que improvisaba mucho, pero ahora está aprendiendo a pensar antes de actuar», explicó.
El futuro de la IA
Aunque algunos expertos como Dario Amodei, CEO de Anthropic, mantienen un optimismo moderado sobre alcanzar la AGI en los próximos años, el camino parece más incierto que nunca. En lugar de una carrera desenfrenada por alcanzar capacidades humanas, el sector comienza a replantearse cómo usar la IA de manera más efectiva y específica, marcando un posible punto de inflexión en su evolución.
Adaptación AFP