Hace unos días, OpenAI publicó un documento con propuestas sobre cómo gobernar la inteligencia artificial (Industrial Policy for the Intelligence Age: Ideas to Keep People First). Entre los planteamientos destacan un fondo soberano ciudadano, impuestos al trabajo automatizado y una semana laboral de cuatro días.
Sin embargo, lo que más llama la atención es lo que la empresa reconoce sobre sí misma.
El documento admite que puede llegar un punto en que los sistemas no puedan ser controlados —con los riesgos que eso implica, desde ciberataques hasta creación de armas biológicas— porque los desarrolladores no pueden limitar el acceso, o porque son autónomos y capaces de replicarse, por ejemplo. Más que advertir sobre el futuro, anticipa un escenario real. Una empresa privada desarrolla protocolos en caso de que pierda el control sobre lo que produce.
La misma propuesta de política pública identifica a OpenAI como riesgo potencial de concentración de poder. ¿Su solución? Estructuras de gobernanza moldeadas por la misma empresa. Quienes diseñan el sistema escriben sus propias reglas, advierten sobre sus propios riesgos y proponen sus propias soluciones. Ningún actor externo participa en esa construcción.
En febrero, analicé esa tendencia tomando como punto de partida el conflicto entre Anthropic y el Pentágono. El documento de OpenAI la confirma.
El vacío normativo es más visible en Estados Unidos: el Congreso federal no ha aprobado ninguna regulación común. California usa el poder de compra del estado para imponer estándares a las empresas que quieran hacer negocios con el sector público; mientras la administración Trump pretende —hasta ahora sin éxito— establecer un estándar nacional. Lo que parece un debate regulatorio es en realidad una disputa entre actores que compiten por definir reglas que están rebasadas por la realidad.
OpenAI afirma que la conversación sobre la era de la IA debe ser global. En México, el problema trasciende el rezago regulatorio. Esas tecnologías ya son parte de trámites gubernamentales, operaciones bancarias, incluso de algunas cadenas de valor. No obstante, no participamos en ninguna de las decisiones que definen cómo funcionan, qué límites tienen y quién responde cuando fallan.
Mientras la autorregulación de las grandes empresas avanza hacia una nueva etapa, países como el nuestro siguen completamente ausentes. Cuando ese nuevo andamiaje esté consolidado, no habrá nada que discutir. Simplemente tendremos que admitir los términos y asumir un riesgo adicional: los propios arquitectos admiten la posibilidad de perder el control de su obra.
La pregunta no es si México participa o no en la conversación. Es si alguien puede realmente evitar que se pierda el control de esos sistemas.
Recomendar Nota
