Anthropic ha presentado ‘dreaming’, una nueva capacidad para su plataforma de agentes Claude Managed Agents que permite a los sistemas de inteligencia artificial revisar sus propias ejecuciones, identificar errores y corregirlos de forma autónoma. La función fue anunciada durante la segunda conferencia anual Code with Claude en San Francisco y representa un cambio significativo en cómo los agentes de IA pueden mejorar su rendimiento sin supervisión constante.
A diferencia de los sistemas de IA tradicionales que dependen de bucles de retroalimentación humana, ‘dreaming’ permite a los agentes ejecutar simulaciones internas de posibles cursos de acción antes de comprometerse con una respuesta. Cuando el sistema detecta un resultado suboptimal, puede reiniciar el proceso desde un punto anterior, lo que reduce drásticamente las tasas de error en tareas complejas de codificación y análisis.
Según Anthropic, la capacidad ya está siendo utilizada por empresas que manejan flujos de trabajo de alta frecuencia, donde la velocidad y la precisión son críticas. La compañía ha destacado que el sistema no requiere datos de entrenamiento adicionales y que su implementación puede realizarse mediante una actualización de API para los usuarios actuales de la plataforma Claude.
La presentación de ‘dreaming’ se produce en un momento en que la competencia entre proveedores de agentes de IA se intensifica, con Microsoft, Google y OpenAI lanzando capacidades similares en los últimos meses. Anthropic ha diferenciado su enfoque al enfatizar la capacidad del sistema para explicar sus propias decisiones de corrección, lo que facilita la auditoría para las empresas que requieren cumplimiento normativo.
El Chasqui
Comentarios (0)
Sé el primero en comentar.