Desde abril de 2026, Anthropic ha lanzado tres servicios – Routines, Agent Skills y Claude Managed Agents – donde los agentes de IA se construyen y alojan directamente con ellos. Ayer, en una conferencia en San Francisco, añadieron multi-agent orchestration, outcomes y dreaming. Para las PYMES polacas, esto significa una cosa: por primera vez, la infraestructura deja de ser una excusa.
Un giro silencioso que el mercado aún no ha nombrado
Durante dos años, todos hablaron de modelos. Mientras tanto, Anthropic ha desmontado sistemáticamente otro problema: cómo ejecutar un agente de IA sin un stack propio. Claude Managed Agents (8 de abril), Routines en Claude Code (14 de abril) y ayer tres mecanismos más – no son actualizaciones cosméticas. Es un cambio de modelo de negocio: Anthropic deja de vender solo el modelo y empieza a vender un servicio completo – sandbox, planificador, bóveda de claves, orquestación. Hace cuatro días sumaron una empresa conjunta de 1.500 millones de dólares con Goldman Sachs y Blackstone – para implementar Claude en empresas medianas "en días, no en meses".
Qué cambia concretamente
A un empresario polaco de una empresa de 30 personas se le decía hasta ahora que para automatizar el trabajo con IA necesitaba Azure, un ingeniero DevOps y alguien que escribiera código. En el modelo de Anthropic, cada uno de estos elementos viene listo. Routines ejecuta tareas repetitivas en la nube de Anthropic – incluso con el portátil apagado. Agent Skills permite cargar tus propios procedimientos como carpetas con archivos de texto – sin programación. Managed Agents aloja al agente entero, facturando solo los segundos activos de su trabajo.
Lo añadido ayer
Tres mecanismos que conviene conocer en inglés, porque así aparecen en la documentación. Multi-agent orchestration – un agente director reparte la tarea entre hasta 20 agentes especializados trabajando en paralelo. Outcomes – escribes una rúbrica de cómo debe verse el éxito, y una instancia separada de Claude verifica el resultado y le ordena al agente corregir si los criterios no se cumplen. Dreaming – el agente revisa por la noche sus sesiones anteriores, extrae patrones y actualiza su propia memoria. La consecuencia empresarial: el agente aprende de sus errores sin tu intervención.
Qué no elimina este giro
No elimina la necesidad de saber qué proceso queremos entregar al agente. Según mis observaciones – confirmadas por informes de RAND y MIT – el 80 % de las implementaciones de IA no aportan valor empresarial, y el 95 % de las empresas que usan IA generativa no reportan retorno medible. No es un problema de tecnología, es la falta de un proceso definido. Ningún servicio de Anthropic cambiará eso. También quedan riesgos reales – dependencia de un solo proveedor, privacidad de datos y exigencias del AI Act.
Qué hacer con ello
No preguntes: "¿Podemos permitirnos la infraestructura para IA?". Pregunta más bien: "¿Qué proceso nuestro está lo suficientemente bien descrito para entregarlo a un agente hoy – y quién responde cuando se equivoque?". Porque la barrera con la que las PYMES polacas se han excusado los últimos dos años está desapareciendo. Queda la segunda – y nunca fue tecnológica. Fue directiva.
Querida Lectora/Querido Lector. Si crees que el tema anterior se aplica a tu empresa y quieres hablar conmigo en el ámbito del Consejo sobre cómo aprovechar razonablemente los nuevos servicios de IA en la realidad de tu empresa, ponte en contacto.
Leszek Giza
