La Administración de Estados Unidos ha iniciado contactos con algunas de las principales empresas tecnológicas, como OpenAI, Google y Anthropic, para explorar la creación de mecanismos de supervisión sobre sistemas de inteligencia artificial. El planteamiento incluye la posibilidad de establecer controles previos al lanzamiento de determinados modelos, aunque por ahora no existe una normativa aprobada que obligue a ello.
El enfoque que se está valorando contempla la creación de procedimientos que permitan revisar determinados modelos de inteligencia artificial antes de su despliegue. Entre los aspectos que se analizan figuran los posibles riesgos asociados a capacidades avanzadas y a usos indebidos de estas tecnologías.
Conversaciones sin normativa ni calendario definido
Actualmente, no existe un marco regulatorio en vigor que establezca la obligación de someter los modelos de inteligencia artificial a una revisión previa antes de su lanzamiento. Tampoco se ha anunciado un calendario para la implantación de este tipo de controles.
Las conversaciones impulsadas por la administración de Donald Trump se enmarcan en el diálogo con el sector tecnológico. El objetivo es explorar posibles mecanismos de supervisión sin que se haya concretado cómo se aplicarían ni qué organismos serían responsables de su ejecución.
En este contexto, las empresas implicadas participan en los contactos sin que se haya definido un procedimiento formal ni criterios técnicos cerrados. La iniciativa se mantiene en fase de estudio, sin desarrollo normativo.
El eje de las discusiones es la evaluación de riesgos antes del lanzamiento de sistemas avanzados de inteligencia artificial. La posibilidad de introducir revisiones previas se vincula a la necesidad de analizar capacidades tecnológicas y posibles impactos.
Este planteamiento no se ha traducido, por ahora, en obligaciones legales ni en cambios regulatorios efectivos. La propuesta sigue en una etapa inicial dentro de la administración estadounidense, sin que se hayan anunciado medidas concretas derivadas de estos contactos con OpenAI, Google y Anthropic.