La gobernanza internacional de la inteligencia artificial (IA) congrega a gobiernos, organizaciones internacionales, empresas, instituciones académicas y actores de la sociedad civil para establecer pautas, estándares y herramientas destinadas a orientar cómo se desarrolla y emplea esta tecnología. Las discusiones integran dimensiones técnicas, éticas, económicas, de seguridad y geopolíticas. A continuación se detallan los asuntos clave, ejemplos específicos y los mecanismos que distintos foros proponen o ya ponen en práctica.
Riesgos para la seguridad y la integridad
La atención dedicada a la seguridad abarca errores involuntarios, usos malintencionados y repercusiones estratégicas de gran alcance. Entre los aspectos esenciales se encuentran:
- Riesgos sistémicos: la posibilidad de que modelos extremadamente avanzados se comporten de manera inesperada o superen los mecanismos de control, comprometiendo infraestructuras críticas.
- Uso dual y militarización: la incorporación de IA en armamento, sistemas de vigilancia y operaciones de ciberataque. En debates de la ONU y del Convenio sobre Ciertas Armas Convencionales se analizan opciones para regular o incluso vetar sistemas de armas totalmente autónomos.
- Reducción del riesgo por diseño: estrategias como evaluaciones adversarias, auditorías de seguridad y la exigencia de análisis de riesgo previos a cualquier implementación.
Ejemplo: en el escenario multilateral se debate la formulación de reglas obligatorias relacionadas con SALA (sistemas de armas letales autónomas) y la implementación de mecanismos de verificación destinados a impedir su proliferación.
Derechos humanos, privacidad y vigilancia
La IA plantea retos para derechos civiles y libertades públicas:
- Reconocimiento facial y vigilancia masiva: riesgo de erosión de la privacidad y discriminación. Varios países y la Unión Europea estudian restricciones o moratorias para usos masivos.
- Protección de datos: gobernanza del uso de grandes volúmenes de datos para entrenar modelos, consentimiento, minimización y anonimización.
- Libertad de expresión e información: moderación automatizada, generación de desinformación y deepfakes que afectan procesos democráticos.
Caso: la proliferación de campañas de desinformación impulsadas por la generación automática de contenido ha desencadenado discusiones en foros electorales y ha motivado propuestas que buscan imponer obligaciones de transparencia respecto al empleo de sistemas generativos dentro de las campañas.
Equidad, no discriminación y inclusión
Los modelos pueden reproducir o amplificar sesgos existentes si los datos de entrenamiento no son representativos:
- Discriminación algorítmica: evaluaciones independientes, métricas de equidad y mecanismos de reparación.
- Acceso y desigualdad global: riesgo de concentración de capacidad tecnológica en pocos países o empresas; necesidad de transferencia de tecnología y cooperación para capacidades locales.
Dato y ejemplo: estudios han mostrado que modelos entrenados con datos sesgados dan peores resultados para grupos subrepresentados; por ello iniciativas como evaluaciones de impacto social y requisitos de testeo público son cada vez más solicitadas.
Claridad, capacidad de explicación y seguimiento
Los reguladores discuten cómo garantizar que sistemas complejos sean comprensibles y auditables:
- Obligaciones de transparencia: informar cuando una decisión automatizada afecta a una persona, publicar documentación técnica (fichas del modelo, orígenes de datos) y facilitar mecanismos de recurso.
- Explicabilidad: niveles adecuados de explicación técnica para distintos públicos (usuario final, regulador, tribunal).
- Trazabilidad y registro: bitácoras de entrenamiento y despliegue para permitir auditorías posteriores.
la propuesta legislativa de la Unión Europea organiza los sistemas por niveles de riesgo y requiere que se entregue documentación exhaustiva para aquellos que se catalogan como de alto riesgo
Cumplimiento y responsabilidad legal
La cuestión de cómo asignar la responsabilidad por daños ocasionados por sistemas de IA se ha convertido en un punto clave:
- Regímenes de responsabilidad: se discute si debe recaer en el desarrollador, el proveedor, el integrador o el usuario final.
- Certificación y conformidad: incluyen esquemas de certificación previa, evaluaciones independientes y posibles sanciones en caso de incumplimiento.
- Reparación a las víctimas: se plantean vías ágiles para ofrecer compensación y soluciones de remediación.
Datos normativos: la propuesta de la UE prevé sanciones ajustadas a la gravedad, incluidas multas de gran envergadura ante incumplimientos en sistemas clasificados como de alto riesgo.
Propiedad intelectual y acceso a datos
El uso de contenidos destinados al entrenamiento de modelos ha provocado fricciones entre la creación, la reproducción y el aprendizaje automático:
- Derechos de autor y recopilación de datos: disputas legales y demandas de precisión acerca de si el proceso de entrenamiento representa un uso permitido o necesita una licencia formal.
- Modelos y datos como bienes estratégicos: discusiones sobre la conveniencia de imponer licencias obligatorias, habilitar el intercambio de modelos en repositorios abiertos o limitar su exportación.
Varios litigios recientes surgidos en distintos países han puesto en entredicho la legalidad del entrenamiento de modelos con material protegido, lo que está acelerando ajustes normativos y promoviendo acuerdos entre las partes involucradas.
Economía, empleo y competencia
La IA puede transformar mercados, trabajos y estructuras empresariales:
- Sustitución y creación de empleo: estudios muestran efectos heterogéneos: algunas tareas se automatizan, otras se complementan; políticas activas de formación son clave.
- Concentración de mercado: riesgo de monopolios por control de datos y modelos centrales; discusión sobre políticas de competencia y interoperabilidad.
- Impuestos y redistribución: propuestas para impuestos sobre beneficios derivados de automatización o para financiar protección social y reentrenamiento.
Ejemplo: variantes regulatorias incluyen incentivos fiscales para inversiones en capacitación y cláusulas en contratos públicos que favorezcan proveedores locales.
Sostenibilidad ambiental
El impacto energético y material de entrenar y operar modelos es objeto de regulación y buenas prácticas:
- Huella de carbono: entrenamiento de modelos muy grandes puede consumir energía significativa; indicadores y límites son discutidos.
- Optimización y transparencia energética: etiquetas de eficiencia, reporte de consumo y migración a infraestructuras con energía renovable.
Estudio relevante: diversos análisis han puesto de manifiesto que entrenar modelos de lenguaje de manera intensiva puede llegar a producir emisiones comparables a decenas o incluso cientos de toneladas de CO2 cuando el proceso no se optimiza adecuadamente.
Regulaciones técnicas, estándares y procesos de interoperabilidad
La adopción de estándares facilita seguridad, confianza y comercio:
- Marco de normalización: desarrollo de estándares técnicos internacionales sobre robustez, interfaces y formatos de datos.
- Interoperabilidad: garantizar que sistemas distintos puedan cooperar con garantías de seguridad y privacidad.
- Rol de organismos internacionales: OCDE, UNESCO, ONU, ISO y foros regionales participan en la armonización normativa.
Ejemplo: la OCDE formuló principios para la IA que han servido como referencia para muchas políticas públicas.
Verificación, cumplimiento y mecanismos multilaterales
Sin mecanismos de verificación sólidos, las normas quedan como simples declaraciones:
- Inspecciones y auditorías internacionales: se plantean observatorios multilaterales que monitoreen el cumplimiento y difundan información técnica.
- Mecanismos de cooperación técnica: apoyo para naciones con menor capacidad, intercambio de buenas prácticas y recursos destinados a reforzar la gobernanza.
- Sanciones y medidas comerciales: debate sobre restricciones a la exportación de tecnologías delicadas y acciones diplomáticas frente a eventuales incumplimientos.
Caso: las limitaciones impuestas al comercio de semiconductores ilustran cómo la tecnología de IA puede transformarse en un asunto de política comercial y de seguridad.
Instrumentos normativos y recursos aplicados
Las respuestas normativas pueden adoptar formatos rígidos o enfoques más adaptables:
- Regulación vinculante: normas nacionales o regionales que establecen deberes y contemplan sanciones (por ejemplo, una propuesta legislativa dentro de la Unión Europea).
- Autorregulación y códigos de conducta: lineamientos promovidos por empresas o asociaciones que suelen ofrecer mayor rapidez, aunque con requisitos menos estrictos.
- Herramientas de cumplimiento: análisis de impacto, auditorías externas, sellos de conformidad y espacios regulatorios de prueba destinados a evaluar nuevas políticas.
Gobernanza democrática y participación de la ciudadanía
La legitimidad de las reglas depende de la inclusión:
- Procesos participativos: consultas públicas, comités de ética y representación de comunidades afectadas.
- Educación y alfabetización digital: para que la ciudadanía entienda riesgos y participe en decisiones.
Ejemplo: en distintos países, varias iniciativas de consulta ciudadana han incidido en las exigencias de transparencia y en las restricciones aplicadas al empleo del reconocimiento facial.
Sobresalientes tensiones geopolíticas
La búsqueda por liderar la IA conlleva riesgos de fragmentación:
- Competencia tecnológica: estrategias de inversión, apoyos estatales y pactos que podrían originar ecosistemas tecnológicos separados.
- Normas divergentes: marcos regulatorios distintos (desde posturas más estrictas hasta otras más flexibles) influyen en el comercio y en la colaboración global.
Resultado: la gobernanza global intenta conciliar la armonización regulatoria con la autonomía tecnológica.
Acciones y referencias multilaterales
Existen diversas iniciativas que actúan como punto de referencia:
- Principios de la OCDE: directrices destinadas a promover el uso responsable y fiable de la IA.
- Recomendación de la UNESCO: marco ético concebido para orientar la formulación de políticas nacionales.
- Propuestas regionales: la Unión Europea desarrolla un reglamento basado en la gestión del riesgo y en exigencias de transparencia y seguridad.
Estas iniciativas reflejan cómo se entrelazan directrices no obligatorias con propuestas legislativas específicas que progresan a distintos ritmos.
La gobernanza internacional de la IA es un entramado dinámico que debe integrar exigencias técnicas, valores democráticos y realidades geopolíticas. Las soluciones efectivas requieren marcos normativos claros, capacidades de verificación creíbles y mecanismos