Cuanta Libertad le Damos a los Agentes de IA?
Los agentes de IA — software que puede realizar acciones en tu nombre, como escribir codigo, enviar correos o buscar en la web — ya no son un concepto futurista. Estan aqui, y la gente los usa todos los dias. Pero queda una gran pregunta abierta: cuanta independencia deberiamos darles realmente?
Anthropic, la empresa detras de Claude, acaba de publicar un estudio fascinante que analiza millones de interacciones reales entre humanos y agentes de IA. En lugar de teorizar sobre lo que los agentes podrian hacer, midieron lo que realmente esta sucediendo en la practica. Esto es lo que encontraron y por que importa.
Que Es un Agente de IA?
Antes de profundizar en los hallazgos, aclaremos que queremos decir con "agente." En este contexto, un agente de IA es un sistema de IA que no solo responde preguntas — puede hacer cosas. Puede ejecutar codigo, llamar APIs, editar archivos e interactuar con otro software. Piensa en la diferencia entre pedirle direcciones a alguien y entregarle las llaves del auto.
Anthropic estudio dos fuentes principales de datos: Claude Code (su propio asistente de programacion que los desarrolladores usan a diario) y su API publica (que miles de empresas utilizan para construir sus propias herramientas impulsadas por IA). Juntas, estas les dieron una vision profunda y amplia de como se comportan los agentes en el mundo real.
Los Agentes Trabajan de Forma Independiente por Mas Tiempo
Uno de los hallazgos principales es que los agentes de IA estan funcionando por periodos mas largos sin intervencion humana. En Claude Code, las sesiones mas largas (el 0.1% superior) casi se duplicaron en duracion en solo tres meses — de menos de 25 minutos a mas de 45 minutos de trabajo autonomo ininterrumpido.
Lo interesante es que este aumento fue gradual. No salto con cada nuevo lanzamiento de modelo, lo que sugiere que no se trata solo de que la IA sea mas inteligente. Tambien se debe a que las personas se sienten mas comodas dejando que la IA trabaje por su cuenta, y a que el producto mejora en sus detalles.
La sesion mediana sigue siendo corta — alrededor de 45 segundos — por lo que la mayoria de las interacciones son intercambios rapidos. Pero la tendencia en el extremo superior senala un cambio significativo en como las personas estan empezando a usar estas herramientas para tareas mas grandes y ambiciosas.
La Confianza se Construye con el Tiempo — Pero Tambien la Vigilancia
Quizas el hallazgo mas matizado tiene que ver con como cambia el comportamiento de las personas a medida que ganan experiencia con los agentes de IA.
Los usuarios nuevos tienden a aprobar cada accion que toma la IA — una especie de enfoque de "confiar pero verificar cada paso." Pero a medida que los usuarios acumulan mas sesiones, cambian cada vez mas al modo de aprobacion automatica, dejando que la IA funcione libremente sin pedir permiso para cada accion. Entre los usuarios nuevos, alrededor del 20% de las sesiones usan aprobacion automatica. Para los usuarios experimentados (mas de 750 sesiones), ese numero sube a mas del 40%.
Aqui esta el giro: los usuarios experimentados tambien interrumpen la IA con mas frecuencia, no menos. Esto parece contradictorio al principio, pero en realidad refleja una estrategia de supervision mas inteligente. En lugar de microgestionar cada paso, los usuarios experimentados dejan que la IA funcione y luego intervienen cuando algo no se ve bien. Es como la diferencia entre un gerente nuevo que revisa cada correo antes de enviarlo y uno experimentado que confia en su equipo pero vigila lo importante.
Esto sugiere que la supervision efectiva no se trata de controlar cada accion — se trata de estar en posicion de intervenir cuando importa.
La IA Sabe Cuando Pedir Ayuda
Uno de los hallazgos mas sorprendentes es que Claude se detiene para hacer preguntas con mas frecuencia de lo que los humanos lo interrumpen — especialmente en tareas complejas.
En las tareas mas dificiles, Claude Code se pausa para pedir aclaraciones mas del doble de veces que en las tareas simples. Las razones mas comunes por las que se detiene? Para presentar opciones entre diferentes enfoques (35% de las veces), para recopilar informacion de diagnostico (21%) o para aclarar solicitudes vagas (13%).
Mientras tanto, los humanos principalmente interrumpen para proporcionar contexto tecnico faltante (32%), porque la IA parecia estancada o lenta (17%), o porque obtuvieron suficiente ayuda para continuar por su cuenta (7%).
Esta es una propiedad de seguridad significativa. Una IA que reconoce su propia incertidumbre y pide ayuda en lugar de avanzar a ciegas es inherentemente mas segura que una que siempre asume que sabe todo. Anthropic entrena activamente a Claude para comportarse de esta manera y alienta a otros desarrolladores de IA a hacer lo mismo.
La Mayoria de las Acciones de los Agentes Son de Bajo Riesgo — Pero la Frontera se Expande
Cuando Anthropic examino lo que los agentes realmente estan haciendo a traves de su API, el panorama fue en gran medida tranquilizador:
- 80% de las acciones provienen de agentes con alguna forma de proteccion (como permisos restringidos o aprobacion humana).
- 73% parecen tener un humano en el proceso de alguna manera.
- Solo el 0.8% de las acciones son irreversibles (como enviar un correo a un cliente).
La gran mayoria de la actividad de los agentes esta en ingenieria de software — casi el 50% de todo el uso de herramientas. Esto tiene sentido: el codigo es facil de probar, revisar y revertir si algo sale mal, lo que lo convierte en un ajuste natural para la autonomia de la IA.
Pero los agentes estan empezando a aparecer en dominios de mayor riesgo tambien: salud, finanzas, ciberseguridad y atencion al cliente. Aunque estos usos aun son pequenos en volumen, conllevan consecuencias mucho mayores si algo sale mal. Un error en el codigo es molesto; un error en un expediente medico o una transaccion financiera es una historia completamente diferente.
Que Significa Esto para el Futuro?
Anthropic extrae varias conclusiones importantes de esta investigacion:
Existe un "exceso de despliegue." La autonomia que los modelos de IA son capaces de manejar supera la que se les otorga en la practica. Las evaluaciones externas sugieren que Claude puede manejar tareas que le tomarian a un humano casi 5 horas, pero en el uso real los tramos autonomos mas largos alcanzan alrededor de 45 minutos. Las personas estan siendo cautelosas, lo cual probablemente es sabio — pero tambien significa que los agentes podrian estar haciendo mas.
Las reglas universales no funcionaran. Exigir que los humanos aprueben cada accion de la IA crearia friccion sin necesariamente mejorar la seguridad. La investigacion muestra que los usuarios experimentados desarrollan naturalmente estrategias de monitoreo efectivas que no requieren aprobacion paso a paso. Una buena supervision se trata de poder intervenir cuando sea necesario, no de aprobar mecanicamente cada accion.
Necesitamos mejor infraestructura de monitoreo. Ahora mismo, ni siquiera Anthropic puede ver completamente lo que sucede con los agentes construidos sobre su API. Pueden observar acciones individuales pero no siempre pueden unirlas en sesiones coherentes. Construir herramientas que preserven la privacidad para monitorear el comportamiento de los agentes en el mundo real es un paso importante para toda la industria.
Entrenar a la IA para conocer sus limites es una caracteristica de seguridad. Los modelos que reconocen la incertidumbre y proactivamente piden ayuda proporcionan una capa importante de proteccion que complementa las salvaguardas externas como los sistemas de permisos.
La Conclusion
Todavia estamos en los primeros dias de los agentes de IA. La mayor parte de lo que hacen hoy es relativamente de bajo riesgo, concentrado en ingenieria de software y supervisado por humanos. Pero la trayectoria es clara: los agentes estan asumiendo tareas mas largas, operando en mas dominios y recibiendo mas independencia con el tiempo.
La noticia alentadora es que esto no esta sucediendo de manera imprudente. Los usuarios construyen confianza gradualmente. Los sistemas de IA estan aprendiendo a senalar su propia incertidumbre. Y la comunidad de investigacion esta empezando a medir lo que realmente esta sucediendo en lugar de solo especular sobre lo que podria pasar.
La idea clave es que la autonomia no es solo una propiedad de la IA — surge de la interaccion entre el modelo, el usuario y el diseno del producto. Lograr ese equilibrio sera uno de los desafios definitorios a medida que los agentes de IA se conviertan en una parte mas importante de como trabajamos.
Fuente: Measuring AI agent autonomy in practice — Anthropic, 18 de febrero de 2026.