Anthropic ha anunciado la disponibilidad en beta pública de la memoria en Claude Managed Agents, la función que permite a los agentes aprender de cada sesión mediante una capa de memoria optimizada que equilibra rendimiento y flexibilidad. La novedad crítica está en el formato: las memorias se almacenan como archivos exportables, manejables vía API y bajo control total del desarrollador. Eso significa que un equipo puede ver qué ha aprendido el agente, editarlo, exportarlo a otro sistema o eliminarlo. No es una caja negra. Es un log inspeccionable y portable. El caso de referencia que Anthropic presenta viene de Rakuten, uno de los gigantes japoneses del e-commerce.
Yusuke Kaji, General Manager de AI for Business del grupo, firma las métricas: 97% menos errores en primera pasada, 27% menor coste por tarea y 34% menor latencia, todo gracias a la memoria. La cita textual de Kaji lo resume: «La memoria en Claude Managed Agents nos permite poner el aprendizaje continuo en producción a escala. Nuestros agentes destilan lecciones de cada sesión… y como la memoria tiene alcance de workspace y es observable, el aprendizaje continuo se mantiene bajo nuestro control».
Los tres adjetivos clave son scoped, observable y exportable: el agente aprende dentro de un espacio controlado (workspace), el equipo puede ver qué aprende, y puede llevarse esos aprendizajes fuera del sistema. El problema de la memoria en agentes autónomos Los agentes de IA sin memoria trabajan en modo amnesia. Cada sesión empieza de cero. Si un equipo de soporte usa un agente para revisar 500 tickets al día, el agente no aprende nada de los primeros 100 tickets para aplicarlo a los siguientes 400. Eso deriva en dos problemas. Primero, el agente repite los mismos errores que ya ha cometido una y otra vez.
Segundo, el equipo humano tiene que verificar cada output con la misma intensidad cada vez, porque no hay razón para confiar en que el agente ha mejorado. Los workflows con agentes sin memoria escalan pero no mejoran, y en dominios técnicos (programación, análisis financiero, soporte especializado) esa limitación es la diferencia entre automatización útil y automatización frustrante. Anthropic lleva meses construyendo hacia esta función.
El trabajo conceptual sobre memoria a largo plazo en agentes de Claude ya se vislumbraba en la propuesta del Claude Agent SDK de finales de 2025, donde la compañía experimentó con estructuras de dos agentes (inicializador más agente de codificación) para mantener contexto entre sesiones . Claude Managed Agents con memoria es la versión madura de esa exploración: un servicio gestionado donde la memoria funciona como parte de la infraestructura, no como patrón arquitectónico que cada equipo tiene que implementar a mano. Los tres casos de uso que Anthropic destaca La compañía identifica tres aplicaciones concretas donde la memoria transforma el workflow.

Primero, cerrar bucles de feedback: el agente recibe correcciones del equipo humano sobre sus outputs incorrectos y usa esas correcciones para mejorar en las sesiones siguientes. No es solo que no repite el mismo error; es que adapta su comportamiento a las preferencias específicas del equipo. Segundo, acelerar verificación: si el equipo sabe que el agente ha aprendido las reglas del dominio, puede aprobar outputs con menos revisión individual, acelerando el throughput del sistema. Tercero, sustituir infraestructura custom de retrieval: muchas empresas han construido pipelines RAG (Retrieval-Augmented Generation) propios para dar contexto a sus agentes.
La memoria nativa de Claude Managed Agents reemplaza parte de esa infraestructura, reduciendo complejidad operativa. Archivos exportables: el antídoto al lock-in La decisión más inteligente del anuncio es el formato de archivo. Almacenar la memoria como archivos tiene varias implicaciones. Primero, observabilidad: el equipo puede abrir los archivos y ver literalmente qué ha aprendido el agente, sin tener que inferirlo del comportamiento. Segundo, portabilidad: si un equipo decide migrar de Claude a otro proveedor, las memorias se pueden llevar. Eso reduce el vendor lock-in que habitualmente acompaña a las plataformas de IA gestionadas.
Tercero, compliance: los archivos pueden auditarse, revisarse por equipos legales, redactarse selectivamente si contienen información sensible. Cuarto, edición manual: si una memoria es incorrecta o sesgada, el equipo puede corregirla directamente en lugar de esperar a que el agente la desaprenda por exposición contraria. Es una decisión de diseño que contrasta con la opacidad de memoria que ofrecen otros proveedores. OpenAI y Google gestionan la memoria de sus agentes como estado interno no exportable. Anthropic apuesta por transparencia radical, y el mensaje comercial es claro: «no te quedas atrapado con nosotros».
La apuesta de Claude por construir herramientas para desarrolladores donde el control del usuario es explícito y la observabilidad es central se refleja también en productos como Claude Code 2. 1. 0 con sesiones portátiles y permisos granulares, o Claude Cowork donde el acceso del agente a los archivos del usuario se concede de forma controlada y auditable .
Etiquetas: Tecnología, OpenAI, ChatGPT, Anthropic, IA conversacional, automatización, Rakuten, software
