La adopción de agentes autónomos en empresas avanza, pero sin gobernanza y control operativo, su impacto real se estanca. La clave no es el modelo, sino la gestión.
Existe una gran diferencia entre el entusiasmo de los pioneros de la inteligencia artificial y lo que realmente llega a funcionar en las grandes empresas. Casi todas las empresas importantes ya han probado algún agente autónomo, pero pocas han logrado ponerlo realmente en producción, y el motivo rara vez tiene que ver con el modelo de lenguaje elegido, sino con la falta de gobernanza.
Cuando una iniciativa de IA se atasca entre la fase piloto y la operación real, el diagnóstico suele apuntar al mismo lugar: faltó una arquitectura de control. No la arquitectura técnica en sentido estricto, sino la definición de quién puede hacer qué, con acceso a qué datos, con qué nivel de autonomía y con qué pista de auditoría. Son exactamente las mismas preguntas que cualquier gerente se hace al contratar a un nuevo colaborador o al delegar una responsabilidad crítica.
Un agente que opera en un entorno corporativo no es simplemente un asistente conversacional más capaz. Es un proceso autónomo que accede a sistemas, ejecuta tareas, persiste entre sesiones y puede seguir funcionando después de que el usuario cierre la computadora portátil. Ha memorizado el contexto, puede crear procesos derivados para actuar de forma independiente y aprende nuevas habilidades durante la ejecución. Por primera vez, un equipo pequeño puede operar con la capacidad de un equipo mucho más grande, pero esto solo funciona si existe una estructura que sustente esa escala.
América Latina no está fuera de esta tendencia, ya que, según la CEPAL, la región ya representa el 14% de las visitas globales a herramientas de inteligencia artificial y ocupa el tercer lugar mundial en descargas de aplicaciones de IA generativa. El interés es real y creciente, pero la propia CEPAL advierte que este avance convive con serias limitaciones estructurales, como la inversión insuficiente, la infraestructura fragmentada y la escasez de talento calificado. La región quiere escalar, pero aún no ha consolidado las bases para hacerlo de manera consistente y esta brecha es sobre todo de madurez operativa, no de adopción.
Un agente de IA que opera en un entorno corporativo no es un chatbot más sofisticado, sino, en realidad, un proceso autónomo con acceso a sistemas, credenciales, archivos y API internas. Puede crear subagentes, escribir código mientras ejecuta tareas y seguir funcionando después de que el usuario cierre la computadora portátil. La ganancia en productividad es real, y también lo es el riesgo cuando no hay límites definidos sobre lo que este agente puede ver, hacer y acceder.
La paradoja central de la autonomía de los agentes radica precisamente ahí: necesitan suficiente libertad para ser útiles y suficientes límites para ser confiables. Sin libertad, el resultado es solo un proceso monitoreado de cerca, como una microgestión. Sin límites, se tiene un sistema autorregulado con acceso irrestrito a la infraestructura crítica de la empresa. Encontrar ese equilibrio no es una decisión técnica, sino una decisión de gestión.
La analogía con la gestión de personas no es forzada, ya que cuando una empresa contrata a alguien para una función sensible, define el alcance, los permisos, el acceso a los sistemas, los límites de autoridad y los mecanismos de auditoría, no es porque desconfíe de la persona, sino porque la confianza institucional se construye con controles visibles, no con fe. El mismo principio se aplica a los agentes: la confianza no proviene del modelo de lenguaje que hay detrás, sino de la capacidad de saber qué hizo el agente, con qué datos, en qué momento y con qué resultado.
La capa que actúa como mediadora entre la solicitud del usuario, los recursos disponibles y el resultado entregado es lo que distingue una prueba exitosa de una operación real. Esta capa de coordinación refleja, invariablemente, la estructura de la propia organización: quién tiene autoridad sobre qué, qué procesos requieren supervisión humana y cuáles pueden delegarse con seguridad. Las empresas con una gobernanza débil producen agentes con una gobernanza débil, y eso no es una coincidencia.
El papel del ejecutivo en esta decisión es más central de lo que parece, y estructurar la operación de los agentes de IA no puede delegarse por completo a los equipos técnicos, porque implica definiciones sobre la cultura de control, la propensión al riesgo, la responsabilidad sobre los datos y el modelo de confianza organizacional. Son preguntas de negocios con respuesta técnica, no al revés.
La promesa de los agentes autónomos es concreta: permitir que las empresas los envíen a realizar tareas en nombre de sus empleados, liberando a las personas para lo que requiere juicio, contexto y relación humana. Sin embargo, esta promesa solo se cumple cuando la infraestructura de control está a la altura de la autonomía concedida, ya que, de lo contrario, lo que se tiene es un piloto bien ejecutado que nunca se convierte en operación.
La ventaja competitiva de los próximos años no residirá en el acceso al modelo más avanzado, algo que tiende a convertirse cada vez más en un producto básico. Radicará en la capacidad de gestionar agentes a gran escala, con control y confianza, y quien desarrolle esa capacidad primero tendrá una ventaja difícil de igualar. Y esa capacidad empieza con una pregunta sencilla: ¿contratarías a alguien sin definir lo que puede hacer?
LinkedIn: https://www.linkedin.com/in/marcioaguiar/