2025 como el año de los agentes en inteligencia artificial
“Creemos que, en 2025, podremos ver a los primeros agentes de IA incorporarse a la plantilla”
Demis Hassabis, de Google DeepMind, denomina a 2025 como 'el año del agente de IA'. Sam Altman en un reciente post ha dejado escrito que
“creemos que, en 2025, podremos ver a los primeros agentes de IA incorporarse a la plantilla”.
No solo ellos: Anthropic, Salesforce, Amazon, Microsoft y muchas otras empresas grandes y startups han anticipado planes o desarrollos al respecto.
¿Qué es un agente inteligente y en qué se diferencian de los chatbots actuales?
Una lectura recomendable al respecto en un reciente informe técnico sobre agentes de IA. Google presenta una definición y detalla una lista de características.
Un agente de IA generativa es un sistema autónomo diseñado para alcanzar un objetivo específico observando su entorno y actuando en consecuencia mediante herramientas disponibles. A diferencia de un modelo de IA estándar, que solo genera respuestas basadas en datos de entrenamiento, un agente puede extender su conocimiento interactuando con sistemas externos.
Como bien resumen Pablo Vittori, las características clave de un agente de IA serían por tanto:
Autonomía: Actúa de manera independiente sin intervención humana constante.
Proactividad: Toma decisiones y planifica acciones basadas en objetivos a largo plazo.
Integración de herramientas: Utiliza herramientas y APIs externas para la toma de decisiones.
Aprendizaje Adaptativo: Ajusta sus respuestas con base en retroalimentación y nuevos datos.
Supone el salto de una IA que nos facilita el trabajo con la información a otra en la que, gracias a la capacidad de planificar, podemos delegar la ejecución de tareas de cierta complejidad. Como apunta Antoni Esteve en Paréntesis, “un avance promete cambiar profundamente nuestra manera de vivir y trabajar”
Trasladado a un ejemplo práctico. Si en la generación de 2024 el chatbot de atención al cliente de un banco es capaz de responder a consultas y gestionar conversaciones de usuarios con el nivel de un operador humano, en 2025 el agente IA además podría ejecutar acciones como mover dinero entre cuentas o realizar transferencias.
Cuáles son las propuestas sobre la mesa y primeros planes (y riesgos)
Google presentó varias líneas de implementación de la idea de agente. De hecho denomina a su Gemini 2.0 “Nuestro nuevo modelo de IA para la era de la agencia”. Lo analizamos en el episodio 3x17 del podcast:
Una de esos proyectos de I+D es el “Project Mariner”, un prototipo que intenta capaz de comprender y razonar a través de la información de la pantalla de tu navegador, incluidos píxeles y elementos web como texto, código, imágenes y formularios, y luego utiliza esa información para completar tareas por el usuario.
Anthropic, los creadores de Claude, también están explorando esa vía: el agente de inteligencia artificial completa tareas por nosotros controlando el navegador web. Lo analizamos en el episodio 3x09:
Precisamente este tipo de propuesta alerta de los riesgos de seguridad. El medio The Information reveló que el lanzamiento de los agentes que utilizan navegadores por parte de OpenAI se ha retrasado debido a preocupaciones de seguridad relacionadas con la 'inyección de prompts'. Fuentes cercanas indican un posible lanzamiento este mes.
Ya sabemos que por la vía de los prompts en ocasiones es posible conseguir que un chatbot se salte los límites de seguridad. El peligro que ven en OpenAI es el de sitios web maliciosos que, con el texto adecuado, pudieran engañar al agente IA para robar datos de los usuarios. O para empujarla para realizar transacciones indeseables. El riesgo ahora no sería una respuesta inadecuada o imprecisa, sería económico u operativo.
Es por eso que el debate con los agentes inteligentes también es del nivel de la tecnología, si estamos construyendo soluciones muy ambiciosas pero con pies de barro:
El impacto en la economía y la empresa
Hay un punto clave en los nuevos mensajes sobre la IA en la empresa con los agentes. Altman mencionó "incorporarse a la plantilla". Jensen Huang de Nvidia en su última presentación afirma que “Los departamentos de IT de las empresas se convertirán en equipos de RRHH para reclutar agentes IA”.
Esta ya no es la visión de que los asistentes de IA ayudan a un trabajador a ser más productivo. No trasladan la idea de que una IA sólo puede hacer pequeñas tareas pero no las más complejas que suponen el verdadero valor de un trabajo. No es el copiloto de un humano, es “uno de la plantilla que realiza un trabajo complejo”.
Una vez más, regresamos a la dinámica de expectativas exageradas y promesas o amenazas asociadas a la inteligencia artificial.
Ciertamente los resultados de o3 fueron prometedores, pero al mismo tiempo los problemas de base de la alucinación de los LLMs sigue pendiente. ¿Es la tecnología lo suficientemente avanzada como para confiar a un agente inteligente la ejecución de tareas en un entorno de producción? Siendo prudentes y escépticos, diríamos que lo que hemos visto hasta ahora no nos garantiza, no nos da seguridad como para hacerlo.
Pero, al mismo tiempo, es justo esta la razón de la enorme inversión en inteligencia artificial: llegar a automatizar una parte relevante de los empleos de cuello blanco, como hemos analizado alguna vez.
El asunto de los agentes inteligentes y algunos temas más es lo que tratamos en el episodio de esta semana, en el que extrañamente acabamos charlando sobre BDSM y ,música electrolatina:
Una reflexión que me surge cada vez que decís que aún no veis claro lo de darle tu tarjeta al agente para que compre unos vuelos: ¿no irá la cosa por que el agente te hará todo el trabajo sucio pero te pedirá la confirmación final? Es decir, tú le dices que te organice el viaje y él te dice al cabo de un rato/días: aquí está el presupuesto (o incluso dos ó tres alternativas), dame el OK y si todo sigue igual lo cierro.
Y por cierto, como no he encontrado y me parece increíble que no exista ya un grupillo en Telegram para comentar los episodios, aquí dejo éste: https://t.me/monosestocasticos