Hace unos días, The Wall Street Journal reveló que Claude, la inteligencia artificial de Anthropic, participó en la operación militar que capturó a Nicolás Maduro en Venezuela. Desde su lanzamiento, la empresa ha vendido a Claude como la IA “ética”. Tanto, que la “Constitución” de Claude establece que el modelo debe ser útil, honesto e inofensivo, y prohíbe explícitamente su uso en actividades como desarrollo de armas o vigilancia masiva sin consentimiento.
Hoy la compañía enfrenta la posible cancelación de un contrato de 200 millones de dólares por negarse a eliminar esas restricciones. El conflicto, que sigue en curso, es por demás revelador: en EU, la regulación de la tecnología más poderosa del siglo XXI depende de normas corporativas o contratos clasificados entre el Departamento de Defensa y empresas privadas.
Mientras el Pentágono exige que sus proveedores acepten el uso de la IA para “todos los propósitos legales”, Anthropic considera que la legalidad no es un criterio suficiente, pues lo legal no necesariamente es ético. La lógica defensiva es comprensible: competir con adversarios que no se autolimitan exige total libertad operativa.
Sin embargo, ambos parten de premisas cuestionables. Por un lado, Anthropic pretende que su “Constitución”—diseñada internamente y susceptible de ser modificada cuando sea conveniente— sustituya una regulación auténtica, producto de una deliberación amplia y democrática. Por otro lado, el Pentágono asume que basta con cumplir los “propósitos legales”, pasando por alto el hecho de que prácticamente todas las normas se redactaron antes de que existieran herramientas tan poderosas como Claude.
¿Por qué debería importarnos?
Primero por el precedente contractual que representa este caso. Si el Departamento de Defensa consigue eliminar las salvaguardas, establecería un estándar para los contratos gubernamentales con empresas de IA. Gobiernos o empresas que hagan uso de estas plataformas tendrán que aceptar términos diseñados unilateralmente. ¿Qué garantías habría, en países como México, para los datos procesados por un sistema alineado con objetivos militares estadounidenses?
Además, se limitaría el mercado para el desarrollo de una IA ética. Anthropic ha construido su marca sobre la responsabilidad; si se ve obligada a ceder a la presión militar, la única alternativa diferenciada perdería incentivos para serlo. La competencia entre proveedores convergería hacia el estándar que exige el cliente con mayor capacidad de compra.
La IA es una realidad, su potencial y riesgos también. En México vamos varios pasos atrás en su regulación. No tenemos una agencia especializada —como el AI Security Institute de Reino Unido— ni leyes capaces de anticipar estos dilemas. Tampoco hemos impulsado alianzas regionales que nos permitan establecer reglas mínimas en común con otros países.
El conflicto entre Anthropic y el Pentágono muestra los riesgos de no asumir la IA como una prioridad de Estado. Cuando sus reglas son escritas por clientes y proveedores, sin contrapesos institucionales ni participación ciudadana, el resultado es la simple optimización, con poco espacio para derechos o límites democráticos.
La inteligencia artificial es uno de esos temas que exigen un debate lo más amplio e incluyente posible, con diálogo entre gobiernos, empresas, especialistas y sociedad civil. México debe asumir esa responsabilidad o resignarse a aceptar términos definidos sin su participación.
