“Lanzaremos una versión de este proceso impulsada por agentes, en la que se realizará un seguimiento continuo de los proveedores, lo que antes no era posible”, afirma.
Esto es algo que las empresas suelen pasar por alto cuando piensan en los agentes de IA, afirma. “Mucha gente se ha centrado en los casos de uso de optimización”, afirma. “Pero el verdadero valor es esta expansión del mercado y la expansión de las oportunidades de ingresos”.
5. RR.HH y apoyo a los empleados
Otro caso de uso de alto valor y relativamente bajo riesgo para los agentes de IA es responder a las preguntas de los empleados y gestionar tareas sencillas en su nombre. De hecho, una encuesta de IBM de enero sobre el desarrollo de la IA general concluyó que el 43% de las empresas utilizan agentes de IA para RR. HH.
Indicium, una empresa global de servicios de datos, comenzó a implementar agentes de IA a mediados de 2024, por ejemplo, cuando la tecnología empezó a madurar.
“Empezarías a ver aplicaciones listas para usar, tanto de código abierto como patentadas, que facilitarían su creación”, afirma Daniel Avancini, director de Datos Corporativos de la empresa.
Los agentes se utilizan para facilitar las cosas a RR. HH., dice, incluyendo tareas como la recuperación de conocimientos internos, el etiquetado y la documentación, así como otros procesos empresariales. Cada agente es como un microservicio, especializado en una cosa en particular. “Y todos ellos hablan entre sí en un sistema multiagente”, dice. Estas conversaciones basadas en mensajes pueden volverse peculiares. Lo complicado es que existe la posibilidad de alucinaciones y todos los demás problemas que conlleva la IA general. “Así que hay que ajustar mucho el modelo para que no hagan algo incorrecto o accedan a la información equivocada”, dice.
En el lado positivo, los agentes de IA pueden manejar muchas preguntas de forma autónoma, por lo que hay un beneficio comercial. “Estamos encontrando cosas que no están correctamente documentadas, por lo que nos ayuda a mejorar los procesos”, añade.
Confiar, pero verificar
La seguridad fue una piedra angular del desarrollo de los agentes de IA desde el primer día. De hecho, uno de los primeros marcos agenticos fue BabyAGI, lanzado a principios de 2023, que combinaba ChatGPT con una base de datos vectorial Pinecone para la memoria, y LangChain para la orquestación. El desarrollador que lo creó le pidió en broma que creara tantos clips como fuera posible, en referencia a un hipotético apocalipsis de clips causado por una IA sin control, y el sistema reconoció inmediatamente el potencial de problemas y comenzó generando primero un protocolo de seguridad para sí mismo. Pero la mayoría de los desarrolladores de IA agéntica no están dispuestos a confiar tanto en la IA.
En una encuesta de LangChain realizada en noviembre a más de 1300 profesionales, el 55% de los encuestados dijo que las herramientas de rastreo y observabilidad son un control imprescindible para los agentes de IA, ya que les ayudan a obtener visibilidad sobre el comportamiento y el rendimiento de los agentes. Además, el 44% contaba con barreras de seguridad y el 40% utilizaba la evaluación fuera de línea.
“Los modelos de IA son arriesgados y cometen todo tipo de errores”, afirma Virginia Dignum, presidenta del consejo de política tecnológica de la Association for Computing Machinery y profesora de la Universidad de Umeå (Suecia).
Pero es posible crear sistemas para detectar errores, dice, de modo que, si un agente no es capaz de realizar una tarea, admitiría que ha fallado en lugar de intentar inventar algo.
“Hay mucha investigación sobre esto y está en teoría”, dice. “Pero, que yo sepa, no existe realmente una interfaz de agente adecuada. Y una vez que empieces a desarrollar estos sistemas, tendrás que lidiar con las consecuencias y con lo que sucede si uno de ellos hace algo mal”.
Eso significa que hay una necesidad de gobernanza y regulación. Y los marcos de agentes no solo deben ocuparse de las implicaciones prácticas y comerciales de los posibles errores de la IA, sino también de las implicaciones legales.
“Si no se resuelven, no creo que los agentes empresariales sean de mucha utilidad”, afirma.
Además, existe otro riesgo que las empresas deben tener en cuenta al implementar agentes de IA: la disrupción y los resultados negativos causados por la escala de automatización impulsada por la IA que los agentes de IA hacen posible. El proceso de gestión del cambio es muy importante a la hora de implementar estos sistemas, afirma Pushpa Ramachandran, vicepresidente y director global de IA en Wipro Technologies. “Aquí es donde veo que muchos clientes se toman un poco más de tiempo”, afirma. Y tomarse el tiempo extra por adelantado significa que la empresa puede llegar más lejos a largo plazo. “Los que son reflexivos sobre el proceso de gestión del cambio pueden escalar más rápido”, afirma.