02 diciembre 2024

La Expectativa de los Agentes de Inteligencia Artificial

La Inteligencia Artificial Generativa se viene adoptando en forma vertiginosa en los últimos años. Modelos como GPT, Claude o Llama han demostrado ser sorprendentes en tareas como resumir documentos, sintetizar reuniones o generar contenido. Sin embargo, la expectativa en el ámbito empresarial se está moviendo rápidamente hacia los llamados Agentes de IA (“Agentic AI”), que proponen ejecutar tareas y tomar decisiones, basadas en objetivos predefinidos, en forma autónoma o con un mínimo de intervención humana. 

De los Robots de Procesos (RPA) a los Agentes de IA

Los agentes de IA proponen una evolución importante de la Automatización Robótica de Procesos (RPA), o bots de software, que en la actualidad se aplican en muchas empresas para  automatizar tareas repetitivas y estructuradas, como el procesamiento de facturas, la conciliación bancaria o el volcado de datos entre sistemas. Mientras que los bots de RPA se configuran con reglas predefinidas, los Agentes de IA aspiran a abordar procesos más complejos que exigen interacción en lenguaje natural,  entendimiento de información no estructurada, y mucho mayor flexibilidad y adaptabilidad. Los Agentes de IA pueden verse como RPAs aumentados con capacidades de IA Generativa y otras técnicas de IA como planificación (generación de secuencias de acciones o planes para lograr objetivos). 

Como ejemplo, imaginémonos asistentes virtuales que no solo responden consultas, sino que ayudan a planificar proyectos, optimizar calendarios, coordinar equipos de trabajo y levantar alarmas de riesgos, todo esto procesando los documentos, comunicaciones e interacciones del proyecto en línea.

Desafíos de la IA de Agentes

Si la IA Generativa presenta desafíos importantes de mejora,  las exigencias para la IA de Agentes serán mucho mayores.

Lo primero, abordar los problemas de inconsistencia y generación de información falsa de los modelos de IA generativos actuales. Un estudio reciente de McKinsey muestra que la generación de información falsa es el riesgo que más preocupa a las empresas en la adopción de la IA. Según el estudio, esta preocupación ha aumentado, pasando del 54 % al 63 % en un solo año. Asimismo, el Hallucination Leaderboard, gestionado por la empresa de IA Vectara, muestra que los modelos populares, como GPT, Llama, Gemini y Claude, presentan tasas de alucinaciones que oscilan entre el 2,5 % y el 8,5 %, llegando en algunos casos a superar el 15 %. Este problema puede ser especialmente crítico en contextos de Agentes de IA donde las decisiones erróneas pueden tener consecuencias significativas. Por ejemplo, un modelo que genera un resumen financiero generando conclusiones incorrectas podría provocar una inversión errónea o incumplir regulaciones. 

Lo segundo, en situaciones donde el contexto, la adaptabilidad y la transparencia son fundamentales, la participación humana seguirá siendo indispensable. El desafío para las empresas no será lograr un equilibrio estratégico entre las capacidades de la IA de Agentes y las habilidades humanas. Esto implica capacitación continua para permitir a las personas interactuar con estas herramientas avanzadas, supervisión activa para la validación de decisiones y diseño centrado en el usuario, etc. 

Otros desafíos involucran gestión de seguridad, para evitar que los agentes sean vulnerables a ataques externos o internos, gestión ética, para garantizar que los agentes autónomos actúen de acuerdo con principios éticos y alineados con los objetivos humanos, y en general, asegurar la consistencia y robustez de los agentes ante cambios en el entorno. 

Todas estas dificultades harán extremadamente desafiante la implementación de auténticos agentes de IA, que vayan más allá de las soluciones tradicionales de Automatización Robótica de Procesos (RPA) con funciones básicas de IA.

Por
Carlos Hurtado L.

PhD Computer Science.
Presidente Ejecutivo y Director de
Consultoría de Microsystem