Tras el protagonismo mediático de empresas como OpenAI (con ChatGPT) y Google (con Gemini), existe una variedad de propuestas de Inteligencia Artificial menos conocidas, pero igualmente relevantes, como Anthropic. Este laboratorio, fundado por antiguos miembros de OpenAI y liderado por los hermanos Daniela y Dario Amodei, se ha destacado por su énfasis en el desarrollo y uso responsable de la IA.
Por ello, cuando el secretario de defensa estadounidense, Pete Hegseth, les exigió que eliminaran sus restricciones de seguridad (guardrails) para permitir que el Pentágono use su modelo, Claude, en cualquier operación legal, incluyendo el desarrollo de armamento autónomo y vigilancia masiva, la reacción era de esperarse.
Anthropic se negó y emitió un comunicado oficial afirmando: “Nos mantuvimos firmes en nuestras excepciones por dos razones. En primer lugar,no creemos que los modelos actuales de IA de vanguardia sean lo suficientemente fiables como para utilizarlos en armas totalmente autónomas. En segundo lugar, creemos que la vigilancia masiva de los ciudadanos constituye una violación de los derechos fundamentales”.
Ante la negativa de Anthropic, Hegseth designó a la empresa como un riesgo para la cadena de suministro de la seguridad nacional. Esta etiqueta suele reservarse para adversarios extranjeros (como Huawei) y prohíbe a cualquier agencia federal o contratista militar hacer negocios con ellos. Por cierto, este modelo de Inteligencia Artificial ha sido usado por Estados Unidos en la guerra contra Irán.
Índice de temas
Donde unos pierden, otros…
Como consecuencia de la postura de Anthropic, el gobierno estadounidense amenazó con cancelar un contrato de 200 millones de dólares pero las consecuencias van más allá, el veto de la cadena de suministro le impide ser usada por otros socios estratégicos como Palantir o Lockheed Martin.
Aunque Hegseth y Amodei se reunieron el 24 de febrero para intentar limar asperezas los esfuerzos fueron en vano y el gobierno buscó alternativas, en particular con OpenAI al tiempo que Hegseth afirmó en redes sociales: “Los combatientes estadounidenses nunca serán rehenes de los caprichos ideológicos de las grandes empresas tecnológicas”.
El 27 de febrero, Sam Altman el CEO de OpenAI, publicó en su red de X: “Esta noche, hemos llegado a un acuerdo con el Departamento de Guerra para implementar nuestros modelos en su red clasificada. En todas nuestras interacciones, el Departamento de Guerra ha mostrado un profundo respeto por la seguridad y el deseo de colaborar para lograr el mejor resultado posible”.
Se trata de una suma de dinero que le llega a OpenAI en el mejor momento posible, cuando se cuestiona la rentabilidad de la empresa matriz de ChatGPT.
Un día después, el 28 de febrero, la cadena de noticias CNBC informó con sorpresa que la aplicación Claude, de Anthropic, se convirtió en la app más descargada en la App Store de Apple en el mercado estadounidense, superando irónicamente a ChatGPT.
El secreto está en la constitución
Una de las diferencias clave de Anthropic comparado con otros modelos radica en su concepto de IA Constitucional. A diferencia de otros que dependen exclusivamente de la retroalimentación humana para aprender comportamientos, los modelos Claude operan bajo una lista de principios rectores que el sistema debe seguir de forma autónoma.
En otras palabras, es un marco ético y técnico diseñado para que el modelo de lenguaje se supervise a sí mismo y tome decisiones basadas en un conjunto de principios. Las bases técnicas de esta constitución vienen de diciembre de 2022 con la publicación del artículo de investigación ‘Constitutional AI: Harmlessness from AI Feedback‘.
Sin embargo, la primera versión formal de la Constitución de Claude se dio a conocer en 2023, cuando Anthropic publicó un conjunto amplio de principios normativos inspirados, entre otros textos, en la Declaración Universal de Derechos Humanos de la ONU y en documentos afines.
En enero de 2026, Anthropic publicó la versión más ambiciosa de la llamada ‘constitución’ de Claude. La actualización transformó el documento de una simple lista de reglas en un texto de unas 23.000 palabras —alrededor de 84 páginas— que incorpora reflexiones filosóficas sobre por qué la IA debería actuar de determinada manera.
Este enfoque aunque fue diseñado originalmente para evitar sesgos y comportamientos peligrosos, en el contexto actual, se ha convertido en una barrera técnica que define hasta dónde puede llegar la herramienta en ámbitos sensibles como la defensa o la vigilancia.
Desafíos estratégicos y futuro
Aparte de su enfrentamiento con el Departamento de Defensa de Estados Unidos, Anthropic enfrenta otros desafíos, entre ellos el espionaje industrial y los ataques provenientes de modelos de Inteligencia Artificial desarrollados en China. Según voceros de la empresa, se han documentado casos en los que laboratorios externos —como DeepSeek, Moonshot y MiniMax— habrían utilizado técnicas de extracción de capacidades para analizar el funcionamiento de Claude y mejorar sus propios sistemas.
De acuerdo con la compañía, este fenómeno, conocido como ‘destilación’, representa un riesgo significativo para su propiedad intelectual, lo que la ha obligado a invertir grandes recursos en la protección de sus algoritmos y en el fortalecimiento de los mecanismos de detección de cuentas fraudulentas.
De cara al futuro, las opciones para Anthropic incluyen una diversificación mayor hacia el mercado corporativo global y la expansión de sus herramientas de programación autónoma. El éxito de Claude Code, que ya representa una fracción importante de la actividad en plataformas de desarrollo de software, indica un camino claro hacia la automatización de procesos técnicos complejos.
¿Qué le depara en el futuro y qué consecuencias tendrá su postura ética? Eso está por verse…







