
Peter Steinberger, el creador del agente de inteligencia artificial OpenClaw, se despertó el sábado con un montón de menciones en su cuenta de Twitter. En todas le advirtieron lo mismo: Anthropic anunció que las cuentas Claude Code (Claude Pro/Max) no se podían usar en OpenClaw. La decisión no le dejó nada indiferente, y los usuarios de este remedio han criticado una decisión que, aunque razonable, es en cierto modo una táctica inquietante por la forma y el momento en que se tomó.
Qué pasó. OpenClaw es el agente de IA que, si quieres, tomará el control de tu máquina y utilizará sus aplicaciones para hacer todo lo que le pidas. Su funcionamiento es muy potente, sobre todo si lo utilizas con modelos de alta calidad como Claude Opus 4.6 o Claude Sonnet 4.6. Muchos usuarios aprovecharon los planes Claude Pro y Claude Max para sacarle el máximo partido a OpenClaw pero Anthropic ha dicho que eso no funciona. Como se explicó anteriormente, OpenClaw y otros agentes de IA consumen demasiados tokens y estos planes están diseñados para usarse para programación en Claude Code.
Si quieres utilizar Claude con OpenClaw, pagas. En Anthropic no prohíben el uso de sus modelos de IA con OpenClaw, pero dejan claro que si quieres usarlos, debes usarlos con su API. Es como si compraras el abono mensual por 20 euros para viajar ilimitadamente en el metro: funciona perfectamente cuando vas al trabajo o a la universidad y vuelves, pero Anthropic dice que no puedes usar esta tarjeta para tu empresa de mensajería que hace cientos de viajes cada día. El consumo de tokens en Claude Code es manejable, pero en OpenClaw este consumo se dispara y en Anthropic quieren que pagues por uso y no uses la «tarifa plana» (con limitaciones) de sus planes Pro/Max.
es comprensible… Muchos usuarios han atacado a Anthropic y criticado esta decisión. Boris Cherny, uno de los altos directivos de Claude Code, respondió en X a un usuario que le dijo que la decisión “apestaba”:
«Sé que apesta. En esencia, la ingeniería consiste en tomar decisiones difíciles y, para atender a muchos clientes, una de las cosas que hacemos es optimizar el funcionamiento de las suscripciones para llegar a la mayor cantidad de personas posible con el mejor modelo».
Los servicios de terceros no están optimizados de esta manera, por lo que es muy difícil para nosotros sostener esto a largo plazo”.
Es cierto que el despliegue masivo de Claude en OpenClaw aumenta los costes internos de la infraestructura de Anthropic: no les merece la pena tener tantas instancias de OpenClaw utilizadas con Claude, al menos no si no se utilizan con la API. Esto tiene sentido ya que estos planes efectivamente «hacen trampa», ya que pueden usarse con este y otros agentes de IA. Pero…
…el momento es curioso. Esta decisión llega poco después de que Anthropic comenzara a «copiar» algunas de las características de OpenClaw en sus productos, que es lo que esperábamos. Claude Cowork, Dispatch y Remote Control se han convertido en las formas «oficiales» de poder hacer algo de lo que OpenClaw hace directamente con las herramientas de Anthropic, y poco después del lanzamiento comenzarán a abordar la forma en que los usuarios pueden usar sus planes mensuales. Para Peter Steinberger, el inventor de OpenClaw, la decisión de Anthropic llega ahora es significativo:
«Es curioso cómo coinciden los tiempos: primero copian las funciones más populares de nuestra herramienta en su propio producto cerrado y luego bloquean el acceso al código abierto».
Antrópico no miente. El argumento técnico que menciona Cherny es real y la verdad es que hay un problema de capacidad. Los modelos de Claude son costosos de ejecutar, la demanda está creciendo más rápido que la infraestructura y los usuarios de agentes de inteligencia artificial como OpenClaw consumen recursos de manera mucho más intensiva que los usuarios de chat tradicional o código Claude. Eso no es sostenible, pero también es cierto que esta decisión se produce tres semanas después de que Steinberger «vendiera» OpenClaw a OpenAI, el enemigo de Anthropic.
Antrópico en el modo Nintendo. Este es el patrón clásico del jardín amurallado: ves lo que funciona en otra plataforma o producto de la competencia, lo recoges y luego cierras la puerta. Nintendo lleva décadas haciendo esto con los desarrolladores de sus plataformas y Apple lo ha perfeccionado con la App Store. La diferencia es que Nintendo y Apple tuvieron este jardín amurallado desde el principio y ahora Anthropic lo está construyendo.
Aunque no es exactamente lo mismo. Cabe señalar que Nintendo está protegiendo un ecosistema con décadas de IP (propiedades intelectuales) irreemplazables: Mario, Zelda o Metroid. Es normal incurrir en costos de acceso. Anthropic está haciendo esto actualmente con Claude como su producto estrella, pero obviamente no hay nada (por el momento) que se compare con las IP de Nintendo. Aquí hay otra comparación preocupante: Apple o Nintendo cobran una tarifa para ingresar al ecosistema, pero no mantienen el medidor en funcionamiento. Anthropic sí: tiene un jardín cada vez más cerrado, pero también obliga a utilizar la API para utilizar OpenClaw, con un modelo de pago por uso razonable dada la demanda de Claude.
Pero el resto “se va”. Lo que ha hecho Anthropic está en desacuerdo con lo que están haciendo otras empresas de IA, especialmente cuando se trata de nuevas empresas chinas. Los desarrolladores de Kimi, Minimax, GLM o el actual Xiaomi MiMo no tienen estas pautas: pueden contratar sus planes mensuales a muy bajo precio y utilizar sus modelos para OpenClaw sin problemas y sin (justas) restricciones. Si bien estos modelos no son tan capaces como Claude, su rendimiento sigue siendo impresionante.
En | OpenClaw ha cambiado las reglas de las carreras de IA. Las empresas tecnológicas ya tienen su respuesta: copiarlas