Nuevo prólogo para el informe: Gestión de riesgos de la inteligencia artificial en España
En el marco del proceso de socialización del nuestro informe “Gestión de riesgos de la inteligencia artificial en España” nos complace compartir con ustedes el prólogo escrito por el Eurodiputado del S&D Ibán García del Blanco quien ha participado del proceso de entrevistas durante la escritura de esta publicación y a quien agradecemos su disposición y colaboración.
Pueden descargar esta nueva versión del informe con prólogo en el siguiente botón:
Prólogo
El rápido desarrollo tecnológico de la última década ha culminado en una tecnología que, aún siendo embrionaria, tiene con un enorme potencial: la Inteligencia Artificial. Esta constituye el inicio de una nueva etapa en un mundo que, indudablemente, ya es digital. Ya en el pasado hemos experimentado la llegada de avances disruptivos como la llegada de Internet, atestiguando su gran alcance e impacto en diversas áreas esenciales en nuestra vida desde la salud, la educación y el trabajo, hasta cómo recibimos la información y cómo nos relacionamos.
Es este enorme potencial de la Inteligencia Artificial lo que la hace una tecnología especialmente sensible. La capacidad de generar predicciones, asignar eficazmente los recursos y optimizar las operaciones a través de la personalización de soluciones para los ciudadanos, hacen de la IA una tecnología capaz de generar un gran número de beneficios económicos y sociales, e incluso en el ámbito de la gestión pública, donde abre la puerta a una mejora de servicios en materia de sanidad, agricultura, transporte, justicia y sostenibilidad, entre muchos otros.
Sin embargo, es precisamente esta gran capacidad de impacto de la IA lo que hace necesario un continuo monitoreo de su evolución, así como la creación de una regulación que permita y fomente el desarrollo de las tecnologías pero que también nos proteja de los riesgos inherentes a su utilización. Además, conforme vamos asistiendo a nuevos avances, aparecen nuevas preguntas y retos a los que tenemos que dar respuesta como sociedad, como pueden ser todas las cuestiones ligadas a la Inteligencia Artificial generativa. También, el acceso a la tecnología, la comprensión de sus implicaciones y la adquisición de aptitudes para su uso, principalmente por sectores más vulnerables de la sociedad, constituye uno de los grandes retos que debemos tratar desde las políticas públicas.
Y es precisamente ahí donde Europa marca una diferencia y demuestra su liderazgo, en el plano regulatorio. El objetivo dela Unión es asegurar que tanto su desarrollo como su uso sean sostenible, seguro, inclusivo y fiable, situando al ser humano siempre en el centro. Se trata de elaborar un conjunto de reglas de obligado cumplimiento e iguales para todos los actores que quieran operar en Europa, con la intención de instaurar un marco de referencia global en la regulación de dichas tecnologías
En las instituciones europeas se lleva tiempo reflexionando sobre las herramientas más adecuadas para dar respuesta a los retos que plantea el uso de las tecnologías impulsadas por inteligencia artificial. Para ello, se ha trabajado para que la Ley de Inteligencia Artificial sea aprobada antes de final de este año 2023, cuando concluya el acuerdo todavía en curso entre el Parlamento Europeo y el Consejo de la Unión.
El enfoque de la propuesta del Parlamento se mantiene neutro desde el punto de vista tecnológico, centrándose en el uso de estas herramientas y el riesgo que puede conllevar. De esta forma se prohíben las aplicaciones o usos de IA que conllevan riesgos calificados como inasumibles para nuestras sociedades, como el uso por parte de las autoridades en zonas públicas de sistemas de calificación social o la vigilancia biométrica en tiempo real. Además, se declaran de alto riesgo determinados usos en aquellos sectores denominados como “sensibles”, como son la educación o el trabajo, el acceso a la justicia o a servicios básicos, el uso por parte de las autoridades policiales o en el control de las fronteras.
La intención de los legisladores es, así, dotar de confianza a los usuarios. Esto se consigue al asegurar que los sistemas de IA son seguros, eliminando los riesgos que su utilización puede conllevar para la salud, la seguridad o los derechos fundamentales de las personas, a la vez que se da seguridad jurídica a los desarrolladores de dichos sistemas, que conocerán cuáles son las obligaciones que deberán cumplir al comercializar su uso. A este respecto, la posición del Parlamento Europeo ha extremado las precauciones llegando a prohibir el uso de las herramientas biométricas ex-ante en zonas públicas sin excepciones, o el uso de herramientas de reconocimiento de emociones en determinadas áreas como la educación o en el trabajo. Pero se quiere ir más allá. El Parlamento ha venido reclamando la ampliación del listado de usos considerados de alto riesgo proponiendo incluir, por ejemplo, a los algoritmos de recomendación de contenidos en las grandes redes sociales como una medida para luchar contra la desinformación que, cada vez más, ataca a las sociedades democráticas.
El boom de la IA generativa supuso también un punto de inflexión en la propuesta del Parlamento. Tras la irrupción de este tipo de Inteligencia Artificial, el Parlamento tomó consciencia de la importancia de hacer una legislación duradera y resiliente, y ha trabajado por incluir en la Ley de IA requisitos adicionales de transparencia que indiquen que contenido ha sido generado por IA, para evitar así la creación de contenidos ilegales y la publicación de los datos protegidos por derechos de autor utilizados en su entrenamiento. De esta forma, cuando sean considerados de alto riesgo, los desarrolladores que quieran comercializar o utilizar dichos sistemas de IA tendrán que cumplir con una serie de requisitos y obligaciones previos a su puesta en marcha. Además, el Parlamento ha incluido la necesidad de realizar una evaluación de riesgos sobre los derechos fundamentales y la democracia.
La posición adoptada en Pleno del Parlamento Europeo el pasado junio de 2023 incluye puntos de fundamentales, como la oportunidad de establecer principios generales aplicables a todos los sistemas de Inteligencia Artificial. Pero es uno de estos puntos en particular el que para mí es la piedra angular de nuestro futuro democrático, y es la necesidad de asegurar la igualdad de acceso a una educación y formación de calidad en materia de Inteligencia Artificial en la UE.
Una tecnología tan disruptiva debe estar sometida al control democrático de todos los ciudadanos y ciudadanas. Para ello no solo es fundamental promover programas de alfabetización en materia de IA en los sistemas educativos, sino también un aprendizaje permanente que permita a todos los ciudadanos y ciudadanas adaptarse y comprender los futuros cambios que puedan impactar su vida y su desarrollo. Para que la transición digital que estamos atravesando sea democrática y justa es necesario que desde la Unión Europea consigamos cerrar las brechas sociales, regionales y generacionales existentes en materia de IA, no dejando a nadie atrás.
Como hemos visto, esta nueva revolución tecnológica implicará un importante cambio, no solo para cada uno de nosotros como individuos, sino también a nivel social y civilizatorio. Es por eso es más que nunca necesaria una concienciación en materia digital y, más concretamente, en Inteligencia Artificial, que permita a la gente conocer de primera mano los riesgos que esta implica y las consecuencias que pueden tener tanto un mal uso como un bajo control democrático. Este informe es un excelente paso en esta dirección, y pone el foco en un objetivo al que nunca debemos dejar de mirar desde sociedades libres y democráticas: un avance humanístico de la tecnología fundamentado en la difusión del conocimiento.
Agradecimiento
Agradecemos ampliamente al Eurodiputado Ibán García del Blanco por su participación en el proceso de elaboración de este informe y la escritura del prólogo, adicionalmente queremos agradecer a María Teijeiro García (Asistente Parlamentaria Acreditada) por toda la colaboración prestada. Esperamos poder continuar aportando a gestión de los riesgos asociados a la inteligencia artificial en conjunto.