En su conferencia de desarrolladores en San Francisco, Anthropic anunció una nueva función llamada "soñar" dentro de la infraestructura de agentes de IA que lanzó días atrás. El sistema revisa el registro de tareas que los agentes realizan en línea y extrae patrones para optimizar su comportamiento futuro.
La empresa explica que la herramienta permite a los agentes recordar aprendizajes entre sesiones y compartir experiencias con otros agentes. El nombre, sin embargo, ha generado críticas por emular procesos exclusivamente humanos.

El título remite directamente a la novela de Philip K. Dick "¿Sueñan los androides con ovejas eléctricas?", donde se cuestiona la diferencia entre humanos y máquinas. Expertos advierten que este tipo de denominaciones puede inducir a error a los usuarios sobre las capacidades reales de la tecnología.
En el blog oficial, Anthropic describe la función como "un sistema de memoria robusto para agentes que se auto-mejoran". Afirman que la memoria captura lo aprendido y los "sueños" refinan ese conocimiento entre uso y uso.

La práctica de asignar nombres humanos a procesos algorítmicos no es nueva. OpenAI ya había denominado "razonamiento" a una modalidad de ChatGPT que toma más tiempo antes de responder, y otras startups hablan de "recuerdos" cuando se refieren a datos almacenados sobre preferencias del usuario.
Esta estrategia de marketing antropomórfico tiene consecuencias: los usuarios tienden a sobreestimar la autonomía o la conciencia de los sistemas. Incluso el diseño de personalidades distintivas en asistentes como Claude refuerza la percepción de estar interactuando con un ser con vida interior.

En su constitución interna, Anthropic reconoce que emplea términos propios de personas como "virtud" o "sabiduría" para describir el comportamiento deseado de Claude. La justificación es que esperan que el modelo base su razonamiento en conceptos humanos por defecto.
La confusión entre procesos biológicos y computacionales dificulta la comprensión pública sobre cómo funcionan realmente estos sistemas y qué riesgos implican.
Etiquetas: IA, Anthropic, OpenAI, ChatGPT, antropomorfismo, ética tecnológica, agentes de IA, Tecnología · OpenAI, ChatGPT y Anthropic
