Avances en la regulación de la Inteligencia Artificial en América Latina

Por: Monica Ulloa

  1. Introducción

En la última década, la inteligencia artificial (IA) ha experimentado un rápido crecimiento. A medida que su uso se expande, también lo hacen los desafíos asociados con su regulación. América Latina no ha sido ajena a este fenómeno. Siguiendo la tendencia mundial, varios países de la región están debatiendo proyectos de ley sobre IA, presentados recientemente en sus cámaras legislativas.

Algunos de estos proyectos están claramente inspirados en la Ley de IA de la Unión Europea (UE). Esto no es casual: aparte de que la ley europea es el primer gran modelo de regulación en este campo, existe un esfuerzo concienzudo para armonizar esfuerzos regulatorios entre las dos regiones. En julio de 2023, la Unión Europea y veinte países de América Latina y el Caribe establecieron la Alianza Digital UE-ALC, un foro de diálogo y cooperación birregional en asuntos digitales. En noviembre de 2023, en la 4ª Asamblea de la Alianza Europea en IA, celebrada en Madrid, los miembros de la Alianza Digital firmaron una Declaración sobre el refuerzo y la convergencia de políticas digitales y marcos regulatorios sobre IA, que refleja el compromiso por el intercambio de mejores prácticas con la Ley de IA de la UE como punto de referencia.

Si bien algunos países latinoamericanos habían desarrollado estrategias de IA antes de la aprobación de la Ley de IA de la Unión Europea, esta legislación ha catalizado los esfuerzos regulatorios en la región durante el último año. Este reciente impulso regulatorio motivó la realización de esta nota, que tiene como objetivo ofrecer una perspectiva comparativa de los diversos enfoques adoptados en América Latina, identificando patrones emergentes y estrategias comunes. 

2. Contexto

A nivel global, las jurisdicciones de referencia en cuanto a marcos de gobernanza de la inteligencia artificial son la Unión Europea, Estados Unidos y el Reino Unido. Mientras que la UE ha optado por un enfoque proactivo con la Ley de IA, un marco legislativo enfocado principalmente en garantizar la seguridad de estos sistemas en todo su ciclo de vida, Estados Unidos ha seguido un camino más flexible, con regulaciones sectoriales delegadas a agencias específicas, recomendaciones y directrices en su mayoría no vinculantes. El Reino Unido, por su parte, ha optado por una regulación basada en principios y no en legislación prescriptiva inmediata.

América Latina se encuentra en un estadio regulatorio incipiente. Algunos países han empezado a desarrollar políticas específicas o a adaptar sus marcos normativos existentes para abordar los impactos de la IA en diferentes sectores. Muchos de ellos, como veremos, se encuentran influenciados tanto por los enfoques regulatorios de referencia, como por las declaraciones y acuerdos multilaterales a los que se han suscrito algunos países latinoamericanos.

Uno de los acuerdos multilaterales que ha contribuido a determinar el rumbo de la regulación en la región es la Recomendación sobre la Ética de la IA de la UNESCO, publicada en 2021. Este documento nació con el propósito de que los Estados miembros puedan crear leyes y dictar reglamentos u otras medidas prácticas destinadas a garantizar que la IA se utilice de conformidad con los parámetros constitucionales y legales nacionales o internacionales y basada en los derechos humanos.  

En concreto, UNESCO ha trabajado con más de 50 países desde 2023 para aplicar su Recomendación, entre los que se encuentran Brasil, Costa Rica, Cuba, México y Uruguay. Para ello, la organización utiliza la Metodología de Evaluación del Estadio de Preparación, que permite a los gobiernos identificar áreas clave de mejora en sus marcos regulatorios, infraestructura y capacidades técnicas, y determinar cómo alinearse con los principios éticos de la UNESCO. Sumado a ello, esta organización ha creado la red "AI Experts without Borders", que brinda apoyo técnico a los países durante la implementación de políticas.

Por otra parte, los países latinoamericanos miembros de la OCDE (Argentina, Brasil, Colombia, Costa Rica y Perú), suscribieron los Principios sobre IA, en el marco de la Reunión del Consejo de Ministros de la Organización. Este documento es una guía para que los gobiernos prioricen los intereses de las personas, garantizando tanto la transparencia como la rendición de cuentas en el desarrollo y despliegue de la IA. Tanto el instrumento de UNESCO como el de OCDE orientaron las primeras estrategias de IA en Latinoamérica hacia el desarrollo y uso ético de esta tecnología. 

Más recientemente, Argentina, Brasil y México, firmaron en 2019 los Principios de IA del G20, los cuales establecieron un marco de gobernanza orientado a fomentar la innovación, maximizando los beneficios de la IA mientras se mitigan sus riesgos. En 2023, la Declaración de New Delhi, firmada por los líderes del G20 reafirmó estos principios, enfatizando la necesidad de abordar el desarrollo, la implementación y el uso responsables de la IA, la protección de los derechos humanos, la transparencia y la explicabilidad, la rendición de cuentas, la regulación, los sesgos, entre otros aspectos asociados a los riesgos, la ética y la seguridad de los sistemas. 

Adicionalmente, tanto la Declaración de Cartagena como la Declaración de Montevideo han contribuido a la armonización regulatoria en la región. Estos acuerdos establecen principios comunes: la IA debe servir a las personas, respetar los derechos humanos y la diversidad cultural, y promover el desarrollo sostenible; e impulsan a los países firmantes a procurar la implementación de marcos de gobernanza responsables que propicien la creación de sistemas de IA seguros.

Pese a la armonización propiciada por estos acuerdos y declaraciones, en la práctica la regulación en la región ha avanzado de manera dispar y no lineal. Esto se evidencia de forma exhaustiva  en el informe Radiografía normativa: ¿Dónde, qué y cómo se está regulando la Inteligencia Artificial en América Latina?”, que recoge la información de todos los avances regulatorios en la región hasta 2023. No obstante, desde la publicación del informe a finales de 2023, se han producido avances significativos en diversos proyectos de ley (véase Figura 1).  

Figura 1. Avances en cuanto a regulación y gobernanza durante el 2024

Con base en estos últimos avances, a continuación se presenta un análisis de algunas de las principales consideraciones de las regulaciones, seguido por el estudio de tres casos paradigmáticos en la región: el de Argentina, donde la reciente transición política ha conllevado un cambio de rumbo significativo en su enfoque regulatorio; el de Brasil y su último proyecto de ley, que adopta una estructura fuertemente alineada a la regulación de la Unión Europea; y, finalmente, el caso de Colombia, país en el que se han adelantado diferentes iniciativas desde 2019, pero carece de un rumbo claro. 

3. Análisis Comparativo

Para comprender la dirección que están tomando los esfuerzos legislativos en América Latina, aquí se consideran no solo las recomendaciones y planes aprobados oficialmente, sino también los proyectos de ley aún en discusión, con el fin de prever cómo podrían evolucionar los marcos regulatorios y cuáles son las tendencias que están moldeando las políticas en la región. 

El enfoque en ética y derechos humanos es transversal a todas las propuestas, recomendaciones o directrices relacionadas con IA en Latinoamérica. Este enfoque está fundamentado en las Recomendación sobre la ética de la inteligencia artificial de la UNESCO y se evidencia claramente en casos como el de Argentina, con sus Recomendaciones para una Inteligencia Artificial Fiable, o el caso de Brasil, que incorpora discursivamente los principios éticos y de derechos humanos de la Recomendación en su Plan de Inteligencia Artificial 2024-2028. Otros ejemplos claros son el de Colombia y su Hoja de Ruta para la adopción ética y sostenible de la Inteligencia Artificial, y Costa Rica, que enfatiza los principios éticos en el desarrollo de IA en su Ley que regula la Inteligencia Artificial

Además del enfoque de la UNESCO, La Ley de IA de la UE también ha tenido un impacto significativo en las propuestas de regulación regional, especialmente después de la 4ª Asamblea de la Alianza Europea en IA, celebrada en Madrid en 2023, donde los miembros de la Alianza Digital UE-ALC firmaron una Declaración buscando el intercambio de mejores prácticas regulatorias.  Como resultado, se observa, entre otras cosas, una clara tendencia en las propuestas de ley de varios países latinoamericanos hacia la adopción de un enfoque basado en riesgos, en consonancia con el modelo europeo, como se muestra en la Tabla 1. 

Argentina, con la propuesta de Ley 2505-D-2023, es un ejemplo de ello. Este proyecto introduce un marco que clasifica los sistemas de IA en categorías de riesgo, desde inaceptable hasta insignificante, y establece prohibiciones y evaluaciones de impacto en función del riesgo. En Brasil, el Proyecto de Ley 2338/2023 también utiliza un enfoque basado en riesgos, exigiendo evaluaciones de impacto para sistemas de alto riesgo, como lo exige la Ley de IA de la UE. A su vez, en Chile, el Proyecto de Ley Nº 16821-19 de 2024 establece criterios de riesgo para prohibir sistemas de IA inaceptables y regula sistemas de alto riesgo. No obstante, ninguno de estos marcos aborda exhaustivamente cómo se supervisaría y se velaría por el cumplimiento de estas regulaciones.

Tabla 1.  Comparación de los enfoques regulatorios de IA en algunos países latinoamericanos.

En México también se están discutiendo recientes proyectos de ley; uno de ellos,  publicado el presente año, establece un enfoque similar basado en el riesgo, categorizando los sistemas de IA según su impacto potencial y exigiendo evaluaciones y auditorías. Sin embargo, otros países como Colombia no parecen avanzar en esa dirección. En su lugar, priorizan políticas para impulsar el crecimiento del país a través de la implementación “ética” de la IA y, según la información recabada, no cuentan aún con propuestas de regulaciones más estrictas.

En cuanto a la creación de instituciones específicas para la supervisión de la IA, los países latinoamericanos están adoptando distintas instancias. En Argentina, el Proyecto de Ley 3900-D-2024 propone la creación del Observatorio Federal de Inteligencia Artificial para monitorear el desarrollo y uso de esta tecnología. Brasil, por su parte, ya  aprobó en su Plan de Inteligencia Artificial 2024-2028 la creación del Centro Nacional de Transparencia Algorítmica e IA Confiable y del Observatorio Brasileiro de IA (OBIA), éste último encargado de monitorear el desarrollo y uso de la IA en el país. Esta tendencia hacia la supervisión también se refleja en Chile, donde su último proyecto de ley busca crear la Comisión Nacional de Inteligencia Artificial , que tendría como objetivos calificar el riesgo de cada uno de los sistemas de Inteligencia Artificial, autorizar su desarrollo, distribución, comercialización y utilización, y proponer mejoras a su regulación. 

Mientras tanto, en México, la propuesta de la Ley para la Regulación Ética de la Inteligencia Artificial establece la creación del Consejo Mexicano de Ética en IA y Robótica (CMETIAR), destinado a garantizar prácticas éticas en el uso de IA. También en Costa Rica, la Ley que regula la Inteligencia Artificial contempla una entidad para la supervisión, aunque no están definidos todos los detalles de su estructura y funcionamiento.

Además de la creación de nuevos marcos regulatorios e instituciones, los países de la región se han interesado en aplicar regulaciones existentes en cuanto a la protección de datos y la privacidad a los sistemas IA. Brasil, por ejemplo, aplicó su Ley General de Protección de Datos (LGPD), suspendiendo temporalmente el uso de datos personales para entrenar los modelos de IA de Meta. En México, la Ley Federal de Protección de Datos Personales es la que rige actualmente esta área, aunque el INAI ha hecho un llamado para actualizarla e incluir así disposiciones centradas en IA. Por otra parte, países como Argentina, con el Proyecto de Ley 2505-D-2023, tienen interés de incluir nuevas disposiciones específicas sobre la protección de datos personales en sistemas de IA.

Otro asunto de preocupación en la región son los derechos laborales en el contexto de la IA, a los que algunas de las propuestas y planes nacionales le han puesto el foco. Brasil, por ejemplo, incluye medidas para la capacitación y adaptación de la fuerza laboral en su Plan de Inteligencia Artificial, mientras que Panamá, en su Anteproyecto de Ley 014 2023-2024, también ha introducido disposiciones para garantizar la continuidad laboral de los trabajadores,  requiriendo al Estado la implementación campañas de capacitación para facilitar las transiciones laborales. 

Sin embargo, muchos de estos marcos regulatorios y propuestas de ley aún no se han traducido en regulaciones efectivas. Varios países han implementado estrategias nacionales que abordan aspectos comunes como la ética, la transparencia y la gobernanza, pero estos esfuerzos siguen siendo fragmentados, poco concretos y carecen de consolidación. De hecho, los doce países analizados en el Índice Latinoamericano de Inteligencia Artificial (2024), carecen de estrategias de inteligencia artificial sistemáticas y actualizadas. Además, la aprobación e implementación de las propuestas de ley dependen en gran medida de las decisiones de los gobiernos en turno, que, como veremos en los estudios de caso, suelen carecer de continuidad.

Argentina 

Argentina ha experimentado una evolución irregular en su enfoque hacia la IA desde 2019. El Plan Nacional de Inteligencia Artificial durante la presidencia de Mauricio Macri (2015-2019) fue el primer avance. Este plan, elaborado entre 2018 y 2019, se centró en la formación de recursos humanos, el uso de datos públicos, la infraestructura computacional y la ética en IA. Sin embargo, aprobado el último día de la gestión macrista (9 de diciembre de 2019), careció de estructura administrativa y presupuesto, quedando en el olvido con el cambio de gobierno. 

En 2021, bajo la administración de Alberto Fernández, se estableció el Programa de Inteligencia Artificial dentro de la Secretaría de Asuntos Estratégicos. Este programa dio lugar al Centro Argentino Multidisciplinario de Inteligencia Artificial (CAMIA), presentado el 5 de abril de 2022. CAMIA se diseñó para involucrar al sector público y privado en la promoción de la IA, la formación de talentos y la transferencia tecnológica. No obstante, para finales de 2023, CAMIA no había publicado documentos sustanciales y el crédito del Banco Interamericano de Desarrollo (BID) destinado a su funcionamiento fue redirigido al Ministerio de Ciencia, Tecnología e Innovación Productiva.

Posteriormente, Argentina se suscribió a los acuerdos multilaterales de la UNESCO y la OCDE.  En junio de 2023, con base en esos acuerdos, el país adaptó sus propias Recomendaciones para una Inteligencia Artificial Fiable (RIAF), las cuales establecieron un esquema para las etapas de los proyectos de IA y proporcionaron directrices no vinculantes para asegurar que las iniciativas en este campo fueran confiables y éticas. Durante estos últimos años, las regulaciones más concretas se han centrado en el área de defensa, donde la Directiva de Política de Defensa Nacional incluyó por primera vez el uso de IA y robótica en el ámbito militar, y, en 2024, el Ministerio de Seguridad, creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS). 

Desde 2023, Argentina se ha enfocado en la construcción de capacidades locales, en parte impulsado por un préstamo de 35 millones de dólares por parte del BID, que se destinó a fortalecer el ecosistema de IA en el país. Además, bajo la administración de Javier Milei, ha comenzado a adoptar algunas estrategias a nivel internacional. Por ejemplo, en mayo de 2024 el gobierno argentino se reunió en California con líderes tecnológicos de renombre como Sam Altman de OpenAI, Tim Cook de Apple y Elon Musk de Tesla, gracias a un "interés mutuo" en términos de inversión y la promesa de Argentina de ofrecer una "regulación y un entorno favorable para las empresas". Esta postura se alinea con el deseo del gobierno de Milei de apostar por un enfoque más flexible y orientado a la industria.

El debate sobre la regulación de la IA en Argentina continúa abierto. Desde la segunda semana de agosto de 2024, se han llevado a cabo discusiones sobre cómo estructurar un marco regulatorio que evite “la excesiva burocracia y las cargas administrativas que han caracterizado a la legislación europea”. En este contexto, el poder ejecutivo Argentina parece estar buscando posicionarse como un destino atractivo para la innovación en IA, alineando su enfoque de cara al público con las necesidades del mercado, mientras que el poder legislativo ha impulsado regulaciones basadas en riesgo como se refleja en algunas de las recientes propuestas de ley.

Brasil

Brasil se posicionó como pionero en la discusión sobre regulaciones de IA, anticipándose incluso a la Unión Europea en 2020. Sin embargo, este temprano interés no se ha traducido aún en la aprobación de una ley específica. El proceso legislativo ha evolucionado desde una propuesta inicial considerada excesivamente amplia (Proyecto de Ley 21/2020), pasando por la reformulación de la estrategia nacional de IA (EBIA), hasta llegar a una nueva propuesta más elaborada (Proyecto de Ley 2338/2023). Esta última, redactada por un grupo de expertos legales, busca establecer un marco regulatorio integral y actualmente se encuentra en fase de debate parlamentario.

Dentro de los avances más significativos del país se encuentra el Plan Brasileño de Inteligencia Artificial (PBIA) 2024-2028, el cual se enfocó en desarrollar soluciones de IA que mejoren significativamente la calidad de vida de la población. Para alcanzar estos objetivos, el plan prevé una próxima inversión de aproximadamente 4 mil millones de USD, y dentro de este presupuesto, se contempla el apoyo al Proceso Regulatorio y de Gobernanza de la IA con un total de aproximadamente 19 millones de USD.

Además del claro objetivo de construir competencias para participar en el escenario internacional, el presidente Lula da Silva ha mostrado algunas de las orientaciones de la política de IA de Brasil, enfatizando públicamente la necesidad de un marco regulatorio de la IA que incluya a todos los Estados, refleje el Sur Global, fortalezca la diversidad cultural y lingüística y desarrolle la economía digital.

Como fue mencionado, dentro de las propuestas más relevantes en Brasil está el último proyecto de ley (Proyecto de Ley 2338/2023), redactado por un grupo de expertos para reemplazar los proyectos de ley anteriores. El proyecto destaca en la región por su rigurosidad, planteando (1) establecer normas éticas nacionales para el uso responsable de la IA (es decir, derechos humanos, valores democráticos, igualdad, no discriminación, pluralidad y respeto por los derechos laborales), (2) garantizar varios derechos y protecciones individuales en torno a la IA (incluida una explicación de las decisiones asistidas por IA, la capacidad de impugnar esas decisiones y la participación humana en el proceso de toma de decisiones), (3) categorizar los sistemas de IA en niveles de riesgo, prohibiendo los sistemas de "riesgo excesivo" y obligando a los sistemas de "alto riesgo" a una evaluación preliminar y obligaciones de transparencia, (4) exigir que los agentes de IA realicen evaluaciones de impacto algorítmico, (5) introducir un sistema de protección de la responsabilidad civil para los proveedores u operadores de sistemas de IA (en particular, el proveedor u operador de un sistema de "alto riesgo" será considerado objetivamente responsable de los daños resultantes), y (6) establecer un nuevo regulador para supervisar y hacer cumplir esta ley.

Este proyecto, alineado con la regulación de la UE, incluye aspectos similares como la categorización de Riesgos (Capítulo III), la gobernanza de Sistemas de IA (Capítulo IV), Sistemas de IA de Propósito General y Generativos (Capítulo V), reporte de Incidentes Graves (Capítulo VII) y supervisión e inspección (Capítulo IX). Aunque se diferencia de regulaciones más estrictas como la de la UE, al permitir más flexibilidad en la implementación y enfocándose en la autorregulación del sector. Sin embargo, mantiene requisitos rigurosos para sistemas de alto riesgo y establece un marco institucional para la supervisión 

Colombia

En Colombia, la mayoría de las iniciativas en inteligencia artificial (IA) han surgido de manera aislada, sin una orientación clara que cohesione estos esfuerzos, los cuales, en sus inicios, fueron pioneros en la región. En 2020, Colombia fue destacada como una «estrella ascendente» en el índice de preparación gubernamental para la IA elaborado por Oxford Insights e IDRC, reconocimiento que reflejaba el apoyo político existente y el objetivo de generar un mayor valor social y económico a través de la transformación digital tanto en el sector público como en el privado. Durante los primeros años de regulación (2019-2021), el Gobierno colombiano lanzó diversas publicaciones clave, entre ellas: (i) un sandbox sobre privacidad desde el diseño y por defecto en proyectos de IA, (ii) las recomendaciones de la Misión de Expertos, (iii) un plan estratégico para la transferencia de conocimiento en IA y (iv) un modelo de gobernanza para la infraestructura de tecnologías emergentes, entre otras iniciativas.

En abril de 2021, el Departamento Nacional de Planeación lanzó el “Plan de Seguimiento para la Implementación de Principios y Estándares Internacionales en IA en Colombia”, diseñado para guiar el cumplimiento de las recomendaciones del Consejo de Inteligencia Artificial de la OCDE. Posteriormente, en mayo de ese mismo año, se introdujo el “Marco Ético para la Inteligencia Artificial en Colombia”, el cual pretendía servir como un conjunto de directrices no vinculantes para las Entidades Públicas, orientando la formulación y gestión de proyectos que involucren el uso de inteligencia artificial.

Desde entonces, estos esfuerzos pioneros de gobernanza se han ido disipando y han sido reemplazados por otras prioridades de la actual administración, que se ha centrado en la creación de capacidades locales. Sólo recientemente, el Ministro de Tecnologías de la Información y las Comunicaciones presentó el proyecto de Ley 447 de 2024 con el objetivo de impulsar el uso responsable de datos para el desarrollo de políticas públicas y la producción de Inteligencia Artificial (IA) en Colombia, pero es una propuesta sectorizada que no permite entrever el propósito regulatorio del gobierno actual, en comparación con el espectro cubierto por otros proyectos de regulación como el chileno o el brasilero.

4. Discusión

El análisis comparativo revela que, hasta el momento, los avances concretos en materia de regulación de IA en América Latina son limitados en cuanto a implementación, pero significativos en términos de intención política. La mayoría de los países se encuentran en etapas preliminares de formulación de proyectos de ley que, si bien aún no se han traducido en regulaciones efectivas, permiten vislumbrar los enfoques nacionales y su voluntad regulatoria. Posiblemente, lo más tangible a día de hoy son las estrategias nacionales y la suscripción a tratados multilaterales y declaraciones que reflejan compromisos regionales más simbólicos que vinculantes. 

Además, el panorama está considerablemente fragmentado: mientras algunos países como Brasil han tomado medidas más específicas a través de diferentes proyectos de ley y estrategias nacionales, otros como México, están en etapas más tempranas de desarrollo de políticas. Sumado a esto, la falta de una visión integral y coordinada a nivel internacional ha impedido que los esfuerzos regulatorios aborden de manera eficaz las necesidades regionales. El caso de Argentina es un ejemplo claro de esta incertidumbre: aunque ha desarrollado estándares y procesos regulatorios avanzados, el hecho de no contar con una ley aprobada lleva a constantes cambios de rumbo en la dirección regulatoria del país. 

Por su parte, La Ley de IA de la UE ha influido claramente en muchos de los proyectos de regulación, como el de Brasil y Chile. Sin embargo, en otros países como Colombia se avanza sin un derrotero, con iniciativas no vinculantes diseminadas por sectores y sin un enfoque regulatorio evidente de cara al público. Esta diversidad en los enfoques y prioridades responde a las distintas agendas nacionales, que varían con los cambios de gobierno. Sumado a esto, la adopción de marcos regulatorios inspirados en las directrices de la Unión Europea, sin adaptaciones significativas, podría no ser suficiente para cubrir las particularidades de la región, y es posible que la adopción de una regulación en este campo requiera de algo más que la mera transferencia de políticas.

Para mejorar la regulación de la IA en América Latina, consideramos relevante delinear un enfoque más coordinado, y avances como la Declaración de Montevideo y la Declaración de Cartagena son primeros pasos hacia un tipo de regulación regional coherente. A futuro, la regulación de la IA en América Latina dependerá en gran medida de la capacidad de los países para aprender de los errores y éxitos de otras jurisdicciones, así como de su disposición para adaptar estos marcos a sus contextos, prioridades y necesidades.

5. Conclusión

El análisis de la regulación de la inteligencia artificial en América Latina revela una región en proceso de adaptación a los retos que esta tecnología plantea. En este proceso de adaptación, la influencia de marcos internacionales como la Recomendación de la UNESCO y los Principios de la OCDE sobre IA han sido determinantes para establecer las bases que guían los esfuerzos regulatorios en los países. 

La convergencia hacia un enfoque basado en el riesgo, inspirado por  la ley de IA de la Unión Europea, es una tendencia clara en países como Brasil, Perú y Chile, pero la implementación de este enfoque aún está en desarrollo, ya que la mayoría de propuestas de ley aún no han sido aprobadas. A su vez, se ha venido observando una tendencia creciente hacia la adaptación de regulaciones más flexibles, como es el caso de Argentina bajo la administración de Javier Milei, quien busca atraer inversiones internacionales y fomentar la innovación tecnológica a través de marcos regulatorios menos restrictivos.

Aún persisten importantes desafíos en cuanto a la coherencia y la coordinación regional, pero se ha avanzado en la armonización de esfuerzos como los promovidos por la Alianza Digital UE-ALC. La región puede tener potencial para establecer un marco regulatorio coordinado y acorde a los requerimientos contextuales de sus diferentes jurisdicciones, pero esto requerirá una mejor coordinación y la creación de instituciones sólidas que aseguren el cumplimiento de las leyes de una manera vinculante.

Anterior
Anterior

Exploración del Nuevo Acuerdo Comercial Norteamericano: Enfoque en la preparación ante futuras pandemias en México. 

Siguiente
Siguiente

Nota de experiencia sobre la investigación de los escenarios de reducción abrupta de la luz solar (ERALS) en Argentina