Skip to content

La Ruta hacia la Inteligencia Artificial General

Updated: at 04:22 PM

La Inteligencia Artificial General (AGI) ha sido el objetivo final de la investigación en IA durante décadas. La idea de crear una máquina que pueda pensar y aprender como un ser humano ha fascinado no solo a los investigadores, sino a prácticamente todos los que han pensado en el futuro de la tecnología. Recientemente, Sam Altman de OpenAI ha estado hablando de que necesitamos tomar en serio la AGI, sugiriendo que podríamos construir un modelo masivo que pueda manejar cualquier cosa que le lancemos.

Pero hay otra forma de ver esto. Algunas personas inteligentes piensan que la AGI podría surgir realmente de un grupo de modelos más pequeños y especializados trabajando juntos. Profundicemos en ambos enfoques y veamos qué tiene sentido, observando los verdaderos trade-offs en términos de tiempo de entrenamiento, costos de GPU y lo que realmente es factible.

Enfoque 1: Un Modelo Gigante para Gobernarlos a Todos

Construir un modelo masivo para lograr la AGI suena bastante bien, ¿verdad? Pero para que esto funcione, necesitaríamos resolver algunos desafíos técnicos serios:

Datos de entrenamiento:

Estamos hablando de conjuntos de datos enormes que cubren básicamente todo lo que los humanos saben y hacen.

Arquitectura del modelo:

Necesitaríamos redes neuronales increíblemente sofisticadas que puedan manejar las relaciones locamente complejas entre diferentes tipos de información.

Poder de cómputo:

Esto requeriría cantidades enormes de GPU, TPUs, o probablemente hardware personalizado que ni siquiera hemos inventado aún.

Claro, tener un solo modelo podría sonar más simple, pero viene con algunos dolores de cabeza reales:

Sobreajuste:

El modelo podría sentirse demasiado cómodo con sus datos de entrenamiento y tener dificultades con cualquier cosa nueva.

Sobrecarga cognitiva:

Imagina tratar de ser experto en todo a la vez - eso es básicamente lo que le estaríamos pidiendo a este modelo. Probablemente no funcionará bien.

Enfoque 2: Equipo de Especialistas

El otro enfoque es como construir un equipo de expertos en lugar de intentar crear una persona que lo sabe todo. Cada modelo se vuelve realmente bueno en una cosa específica - ya sea entender lenguaje, reconocer imágenes o jugar juegos.

Experiencia de nicho:

Los modelos pueden enfocarse en lo que hacen mejor. Uno para lenguaje, otro para imágenes, otro para razonamiento lógico - you get the idea.

Aprendizaje por transferencia:

Lo que un modelo aprende puede ayudar a otros a aprender más rápido, lo cual es mucho más eficiente que empezar desde cero cada vez.

Este enfoque tiene algunas ventajas claras:

Modularidad:

Cada modelo es más pequeño y más fácil de entrenar, por lo que no necesitas una supercomputadora para ejecutarlos.

Flexibilidad:

Puedes mezclar y combinar estos modelos especializados dependiendo del problema que estés tratando de resolver.

Robustez:

Cuando tienes múltiples expertos trabajando juntos, todo el sistema se vuelve más confiable.

Pero no todo es smooth sailing:

Coordinación:

Hacer que estos modelos diferentes se comuniquen y trabajen juntos es complicado.

Integración:

Necesitas formas inteligentes de combinar lo que todos estos modelos especializados producen.

¿Cómo Se Comparan Estos Enfoques?

Un Modelo GiganteEquipo de Especialistas
Tiempo de EntrenamientoToma forever, realmente complejoMucho más rápido cuando lo descompones
Uso de GPUNecesita un montón de poder de cómputoPuede distribuir el trabajo en múltiples máquinas
¿Realmente factible?Bastante difícil con la carga cognitiva y problemas de sobreajusteMucho más realista gracias al enfoque modular

Seamos realistas - construir AGI es difícil. Ambos enfoques tienen sus méritos, pero el enfoque de equipo de especialistas parece mucho más práctico y probablemente más rápido de poner a funcionar.

A medida que seguimos empujando hacia AGI, necesitaremos seguir probando nuevas arquitecturas, métodos de entrenamiento y formas de integrar todo. El futuro será probablemente alguna mezcla de ambos enfoques - tomando lo que mejor funciona de cada uno y descubriendo cómo hacerlos jugar bien juntos.

Actualización: El Cambio de Terminología AGI vs AI

Desde que escribí este artículo por primera vez en marzo de 2024, ha estado ocurriendo algo interesante en cómo OpenAI habla de inteligencia artificial. Si has estado siguiendo sus anuncios recientes y las charlas de Sam Altman, podrías haber notado un cambio sutil pero importante - están usando “AI” mucho más y “AGI” mucho menos.

Pero hay otro giro interesante en el mensaje de OpenAI últimamente. Han estado hablando mucho más de “agentes” - sistemas de IA que pueden hacer cosas, no solo hablar de ellas. Y dicen los rumores que podrían estar anunciando algo llamado “Agent Builder” pronto.

Esto tiene sentido cuando lo piensas. En lugar de perseguir el santo grial de AGI, se están enfocando en agentes de IA prácticos que pueden manejar tareas específicas y trabajar juntos. Es como si estuvieran pivoteando del enfoque de “un modelo gigante” que discutimos a algo que se parece mucho más al modelo de “equipo de especialistas”.

Quizás se han dado cuenta de que el término “AGI” establece expectativas demasiado altas y crea presión innecesaria. Cuando sigues prometiendo AGI, la gente espera algo que pueda hacer literalmente cualquier cosa que un humano pueda hacer - y simplemente no estamos ahí todavía.

Al enfocarse en “agentes de IA” en lugar de “AGI”, OpenAI puede hablar de sistemas prácticos y en funcionamiento sin quedar atrapado en el problema de definición de AGI. Es marketing más inteligente, honestamente. Pueden mostrar lo que sus modelos pueden hacer realmente hoy mientras construyen hacia sistemas de agentes más complejos.

Lo interesante es que este cambio no altera los desafíos técnicos fundamentales que discutimos en el artículo. Ya sea que lo llames AGI, AI o agentes, todavía enfrentamos las mismas preguntas fundamentales sobre arquitectura, entrenamiento e integración.

Si algo, este enfoque centrado en agentes hace que el modelo de “equipo de especialistas” sea aún más relevante. El futuro podría no ser un modelo AGI mágico, sino una colección de agentes de IA especializados trabajando juntos - que es basically lo que ya estamos viendo con herramientas como ChatGPT, DALL-E y otros modelos especializados. El rumorado Agent Builder podría ser su forma de facilitar que cualquiera cree y combine estos agentes especializados.

Referencias

OpenAI: “Artificial General Intelligence” Stanford University: “The Future of Artificial General Intelligence”


Previous Post
El Abismo de Confiabilidad en Agentes de IA
Next Post
ChatGPT no es un LLM - GPT sí lo es