
La inteligencia artificial ha dejado de ser únicamente una competencia tecnológica entre empresas para convertirse en un fenómeno con profundas implicaciones políticas, éticas y geopolíticas. En marzo de 2026, la rivalidad entre OpenAI y Anthropic alcanzó un punto crítico tras la intervención directa del gobierno de Estados Unidos bajo la administración de Donald Trump. Lo que comenzó como un desacuerdo sobre los límites del uso de la inteligencia artificial terminó transformándose en un enfrentamiento que refleja una realidad cada vez más evidente: las empresas tecnológicas que desarrollan sistemas avanzados de IA están emergiendo como nuevos actores con influencia en el sistema internacional.
El conflicto estalló el 27 de febrero de 2026, cuando la administración Trump ordenó a todas las agencias federales cesar el uso de la tecnología de Anthropic en un plazo de seis meses. La decisión fue impulsada por el Departamento de Defensa de Estados Unidos, que clasificó a la empresa como un “riesgo para la cadena de suministro”, una etiqueta que históricamente ha sido reservada para compañías consideradas una amenaza para la seguridad nacional. El origen del quiebre se encuentra en la negativa de Anthropic a eliminar las barreras de seguridad de su modelo Claude para permitir su uso en programas de vigilancia masiva y en el desarrollo de armas autónomas. La empresa defendió su postura citando su enfoque de “IA constitucional”, un marco diseñado para establecer límites éticos en el funcionamiento de los sistemas de inteligencia artificial.
La reacción política fue inmediata. El presidente Donald Trump criticó públicamente a los fundadores de la empresa, los hermanos Dario Amodei y Daniela Amodei, acusándolos de intentar imponer restricciones ideológicas que, desde la perspectiva del gobierno, podrían afectar la seguridad nacional. Este episodio evidenció una tensión creciente entre los intereses estratégicos de los Estados y la autonomía de las empresas tecnológicas que desarrollan capacidades avanzadas de inteligencia artificial.
Mientras Anthropic enfrentaba el veto gubernamental, OpenAI consolidó su posición como socio tecnológico del gobierno estadounidense. Bajo el liderazgo de su director ejecutivo, Sam Altman, la empresa firmó acuerdos para desplegar sus sistemas de inteligencia artificial en redes clasificadas del Departamento de Defensa. A diferencia de Anthropic, OpenAI aceptó colaborar bajo el principio de permitir todos los usos legales de su tecnología, incluidos aquellos vinculados a la defensa y la seguridad nacional, aunque ha señalado que negoció ciertas salvaguardas para evitar aplicaciones que vulneren derechos fundamentales.
Este contexto ha puesto de relieve una transformación significativa en el equilibrio del poder global. Tradicionalmente, los actores centrales del sistema internacional eran los Estados y las organizaciones internacionales. Sin embargo, el desarrollo de tecnologías estratégicas como la inteligencia artificial está otorgando a ciertas empresas privadas una capacidad de influencia que trasciende el ámbito económico. Compañías como OpenAI o Anthropic no solo compiten en el mercado tecnológico, sino que también toman decisiones que afectan debates sobre seguridad nacional, ética tecnológica, vigilancia, defensa y derechos civiles.
El conflicto alcanzó un nuevo nivel el 9 de marzo de 2026, cuando Anthropic presentó una demanda contra la administración Trump y varias agencias federales. La empresa argumenta que el gobierno está utilizando herramientas diseñadas para proteger la seguridad nacional como un mecanismo de presión para obligarla a modificar sus principios de seguridad tecnológica. Además, la designación como “riesgo para la cadena de suministro” impediría que contratistas de defensa integren sus modelos en proyectos gubernamentales, afectando potencialmente contratos millonarios con empresas del sector como Palantir Technologies.
Más allá de la disputa legal, este enfrentamiento revela dos visiones diferentes sobre el papel que la inteligencia artificial debe desempeñar en el mundo contemporáneo. Por un lado, existe un enfoque que prioriza la cooperación estrecha entre empresas tecnológicas y Estados para acelerar el desarrollo de capacidades estratégicas, especialmente en un contexto de competencia geopolítica entre potencias. Por otro lado, surge una postura que defiende la necesidad de establecer límites éticos claros e inquebrantables para evitar que la inteligencia artificial sea utilizada de manera que pueda comprometer libertades fundamentales o generar riesgos globales.
En este escenario, las empresas que desarrollan inteligencia artificial avanzada comienzan a comportarse como verdaderos actores internacionales. Sus decisiones influyen en políticas públicas, en debates sobre seguridad global y en la configuración de nuevas normas tecnológicas. El resultado de este conflicto no solo determinará el futuro de Anthropic u OpenAI, sino que también podría definir hasta qué punto las corporaciones tecnológicas pueden actuar con autonomía frente a los intereses estratégicos de los Estados en una de las tecnologías más determinantes del siglo XXI.
Soy politóloga con mención en Relaciones Internacionales, egresada de la Universidad Central de Venezuela, y cuento con una trayectoria académica y profesional enfocada en el análisis político, social y empresarial. Mi formación se complementa con un Máster en Administración y Dirección de Empresas, así como una especialización en Coaching y Programación Neurolingüística, ambos cursados en la Escuela de Negocios Europea de Barcelona, España.
A lo largo de mi carrera, he tenido la oportunidad de desempeñarme como asesora política en campañas electorales, diseñando estrategias fundamentadas en un profundo análisis del entorno y las dinámicas sociopolíticas. Asimismo, he ocupado roles de liderazgo como coordinadora en empresas privadas, donde he desarrollado habilidades en planificación, gestión de proyectos y trabajo en equipo.
Mi compromiso con el trabajo social me ha llevado a liderar iniciativas en colaboración con organizaciones no gubernamentales, orientadas a promover el desarrollo de comunidades vulneradas indígenas, generando un impacto positivo en el tejido social.



