Estados Unidos plantea revisar modelos de IA antes de su lanzamiento por riesgos de seguridad nacional

El gobierno de Estados Unidos plantea ampliar la revisión de modelos avanzados de inteligencia artificial antes de que sean liberados al público, como parte de una estrategia enfocada en evaluar riesgos relacionados con ciberseguridad, bioseguridad y seguridad nacional.

La iniciativa fue reportada el pasado 5 de mayo por el medio especializado The Verge, luego de que empresas como Google, Microsoft y xAI acordaran colaborar con autoridades federales para permitir evaluaciones preliminares de sus sistemas de inteligencia artificial antes de su lanzamiento comercial.

Las pruebas estarían a cargo del Centro para Estándares e Innovación en Inteligencia Artificial (CAISI), organismo dependiente del Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés), que desde 2024 ya realiza análisis técnicos de modelos desarrollados por compañías como OpenAI y Anthropic.

De acuerdo con la publicación, el gobierno estadounidense busca fortalecer estos mecanismos de supervisión ante la rápida evolución de los modelos de IA y sus posibles implicaciones en ámbitos estratégicos.

Las preocupaciones aumentaron tras el desarrollo de sistemas capaces de detectar vulnerabilidades informáticas, automatizar tareas complejas y generar contenidos altamente sofisticados, lo que ha encendido alertas sobre posibles usos maliciosos en ciberataques, desinformación o seguridad digital.

Según reportes citados por medios estadounidenses, la administración del presidente Donald Trump también analiza emitir una orden ejecutiva para formalizar procesos de revisión y evaluación de modelos de IA considerados de “frontera”, es decir, aquellos con capacidades avanzadas.

Chris Fall, director del CAISI, señaló que las evaluaciones independientes son fundamentales para comprender el impacto potencial de estas tecnologías.

“Las mediciones rigurosas son esenciales para entender la IA de frontera y sus implicaciones”, afirmó.

Hasta ahora, las revisiones funcionan bajo acuerdos voluntarios entre el gobierno y las compañías tecnológicas, por lo que no existe todavía una regulación obligatoria de supervisión previa.

Especialistas consideran que esta iniciativa representa uno de los pasos más relevantes de Washington para construir mecanismos de control sobre la inteligencia artificial avanzada, en medio de la competencia tecnológica global con China y el acelerado crecimiento del sector.

Comparte este post:

Facebook
X
LinkedIn
Pinterest
WhatsApp

¡Hazte escuchar! Publica tu anuncio aquí

Anúnciate aquí (365 x 270)
Noticias recientes