El documento tardará unos segundos en cargarse. Espere, por favor.

El impacto del Reglamento de Inteligencia Artificial en las entidades locales

M. Ascensión MORO CORDERO

Responsable del Departamento de Gobierno Abierto

Coordinadora Área de Presidencia

Ayuntamiento de Sant Feliu de Llobregat

Revista El Consultor de los Ayuntamientos, Nº III, Sección Tribuna, Octubre 2024

LA LEY 25449/2024

Normativa comentada
Ir a NormaRegl. (UE) 2024/1689 UE, de 13 Jun. (normas armonizadas en materia de inteligencia artificial)
  • CAPÍTULO VI. MEDIDAS DE APOYO A LA INNOVACIÓN
    • Artículo 57 Espacios controlados de pruebas para la IA
Comentarios
Resumen

Las entidades locales se enfrentan, desde hace ya demasiado tiempo, a un proceso de cambio profundo y estructural, para adaptarse a las nuevas formas de relación con la ciudadanía y a una demanda constante de servicios públicos más personalizados, proactivos e incluso predictivos, en un contexto de revolución digital donde las tecnologías disruptivas, en especial, la inteligencia artificial, se presentan como grandes aliadas pero también con multitud de retos y desafíos aún inimaginables. El trabajo realiza una aproximación al nuevo Reglamento europeo de inteligencia artificial analizando, desde una perspectiva holística, su impacto en los gobiernos locales, así como su vinculación con el resto de normativa en materia de protección de datos, gobernanza y gestión inteligente de los datos, como elementos clave para avanzar efectivamente en la consecución de unas administraciones inteligentes, sostenibles, abiertas, inclusivas y sociales.

I. Introducción

Las Administraciones públicas en general, y en especial las entidades locales, están viviendo desde finales del siglo pasado, un proceso de cambio continuo, profundo y estructural, en la medida que de forma progresiva se van sumando, a las agendas tradicionales de la gestión pública, múltiples retos en materia de sostenibilidad, resiliencia, de lucha contra las desigualdades de todo tipo, nuevas formas de relación con la ciudadanía, demandas de servicios públicos más proactivos y personalizados, sin olvidar el enorme impacto que está suponiendo la revolución digital y la emergencia climática, como dos grandes retos de la humanidad en este cambio de era.

En particular, respecto a los efectos que pueden tener los acelerados y previsibles cambios tecnológicos asociados a la revolución digital, se están publicando multitud de estudios realizados por prestigiosos expertos a nivel mundial que, en general, destacan la necesidad de abordar cambios profundos en el sistema educativo, económico, cultural y político, y en la propia concepción de las formas de trabajo tradicionales. (1)

En concreto, como retos clave para las Administraciones públicas en este ámbito cabe resaltar:

  • La digitalización de los puestos de trabajo y la aparición de nuevos perfiles profesionales.
  • La escasez de personal especializado.
  • Los datos masivos (Big Data), los sistemas que gestionan grandes conjuntos de datos y las dificultades que comportan la captura, el almacenamiento, el procesamiento, la búsqueda, visualización, compartición y simulación.
  • Los retos que implican la colaboración segura entre robots y humanos.
  • La ciberseguridad y la resiliencia de un sistema para continuar funcionando incluso en caso de quiebras y ataques.
  • La protección de derechos fundamentales y libertades públicas, que implica una nueva cultura de gestión de los datos y de su control por parte de la ciudadanía, con la incorporación de tecnologías emergentes en proyectos que ya se están desarrollando a nivel europeo como la identidad europea soberana, que permite a los usuarios crear y controlar su propia identidad.
  • La posibilidad de crear nuevos servicios gracias a la tecnología 5G, imposibles de ofrecer con la tecnología 4G.
Los principios de la Agenda mundial 2030 y los ODS siguen siendo una referencia absolutamente imprescindible

Pero parafraseando a Confucio, la irrupción de la inteligencia artificial (IA) no debe hacernos perder de vista que lo importante no es «el dedo, sino la luna», es decir, la IA es un medio que sin lugar a dudas está suponiendo un cambio de paradigma rotundo respecto a las formas de trabajo y de prestación de servicios públicos; pero lo importante en lo que nos ocupa es avanzar (ahora sí) hacia unas administraciones públicas que afronten todos estos desafíos adaptadas a una sociedad en plena cuarta revolución industrial. Por ello, los principios de la Agenda mundial 2030 y los Objetivos de Desarrollo Sostenible (ODS) siguen siendo, ahora más que nunca, una referencia absolutamente imprescindible para enmarcar las medidas de transformación que se están implementando a nivel local. En concreto, por lo que se refiere a la digitalización, el contexto actual caracterizado por el avance continuado y exponencial de las tecnologías disruptivas (5G, computación cuántica, IA, Internet de las Cosas (IoT) y de los Servicios (IoS), el uso móvil de los datos y la disponibilidad de potentes sistemas integrados, sensores y actuadores a precios razonables), está reconfigurando nuestra vida cotidiana y comporta cambios profundos en la economía y el entorno de trabajo.

Si nos fijamos en el nivel europeo de prestación de servicios digitales, España está en una posición muy privilegiada. De hecho, el informe sobre el estado de la década digital 2024 (2) que evalúa el grado de cumplimiento de las políticas europeas dirigidas a alcanzar los objetivos y metas consensuados para avanzar en la transformación digital, en base a indicadores agrupados en cuatro ámbitos: infraestructura digital, transformación digital de los negocios, habilidades digitales y servicios públicos digitales, en el caso de España se destacan como fortalezas: (3)

  • El avance en el uso de inteligencia artificial por parte de las empresas (9,2% frente al 8,0% europeo), donde el crecimiento anual de España (9,3%) es cuatro veces superior al de la UE (2,6%).
  • La gran cantidad de ciudadanos con capacidades digitales básicas (66,2%), frente al promedio europeo (55,6%).

En cuanto a los principales retos a superar, se priorizan la adopción de los servicios en la nube (27,2% versus 38,9% de la UE) y el número de especialistas en tecnologías de la información y la comunicación o TIC (4,4% frente al 4,8% europeo).

A su vez, el informe recomienda también focalizar esfuerzos en tres áreas: la adopción de tecnologías avanzadas (IA, análisis de datos, nube) por parte de pymes; la digitalización y promoción del uso de servicios públicos; y la atracción y retención de especialistas TIC a través del diseño de planes de incentivos. Para ello, España tiene previsto asignar un presupuesto estimado de 26.700 millones de euros (1,8% del PIB), con el objetivo de alcanzar el 100% de los indicadores para 2030.

Los servicios públicos digitales de las diferentes Administraciones públicas no están en el mismo nivel de madurez

No obstante, a pesar de estos fantásticos indicadores, la realidad a la que se enfrentan la casi totalidad de las entidades locales es que los servicios públicos digitales de las diferentes Administraciones públicas no están en el mismo nivel de madurez, lo que dificulta en gran medida la prestación de servicios públicos de calidad; el reto aún no conseguido de implantar soluciones realmente interoperables en los diferentes niveles de Administraciones públicas e internamente en las organizaciones, para superar la percepción demasiado negativa de los usuarios respecto al uso de los servicios públicos digitales, así como la importancia que cada vez más tiene la experiencia del usuario y su incorporación real en el diseño y mejora de los procesos.

A todo ello hay que sumar el aumento exponencial del volumen de datos que se producen. De hecho, se estima que para 2025 se alcanzará la cifra anual de 175 zettabytes (siendo un zettabyte el equivalente a mil trillones de bytes). Esto explica claramente el valor de los datos como motor de desarrollo económico y social, así como el creciente interés de las empresas, centros de investigación y Administraciones públicas por extraer el máximo rendimiento en el tratamiento y la utilización de estos datos con distintas finalidades. En parte, este ha sido uno de los motivos por lo que las tecnologías emergentes, y en especial la IA, que apareció en realidad a mediados del siglo pasado, está cobrando protagonismo e impregnando de forma silenciosa, pero sin pausa, todas las esferas de nuestra vida, personal y profesional (es la IA la que nos recomienda continuamente servicios, películas, páginas web, la ruta más rápida al desplazarnos…). Se trata, pues, de sistemas diseñados por humanos, que pueden actuar en el mundo físico y digital, que perciben el entorno, interpretando los datos, para decidir qué acciones se deben realizar, ya sea por métodos simbólicos (IA generativa) o métodos numéricos (Machine learning). Y estos sistemas necesitan grandes cantidades de datos (big data), datos heterogéneos, de múltiples fuentes, entre ellas los datos que proporcionamos a veces de forma involuntaria e inconsciente, cuando usamos redes sociales, plataformas digitales, etc. En este sentido, ante los que opinan que demasiada regulación de la IA puede acabar con la innovación, es importante recordarles que desde hace ya demasiado tiempo nuestros datos están siendo utilizados por las grandes tecnológicas que, sin rubor, están lucrándose utilizando nuestros datos para sacar provecho económico, mediante el uso de la IA. Esto es algo que es necesario revertir y que la ciudadanía sea realmente quien tenga el control sobre el uso de sus datos para el bien común.

Precisamente, ante el riesgo que supone que la IA esté en manos de unas pocas multinacionales, la ONU ha publicado (4) siete medidas para evitar el impacto que puede tener la IA en los derechos de las personas. Se trata de un informe con el título «Gobernar la IA para la humanidad», en el que han participado más de 2.000 personas con el objetivo de establecer una «arquitectura global cooperativa e inclusiva de la IA con el fin de fomentar el desarrollo y la protección de todos los derechos humanos».

Las recomendaciones de este organismo se resumen en:

  • La creación de un grupo internacional e independiente de científicos expertos en IA, con el objetivo de «proporcionar conocimientos científicos imparciales y confiables sobre la IA». Su misión será ayudar a los Estados miembros a desarrollar una visión compartida de la nueva herramienta y abordar las asimetrías de información entre los laboratorios y el resto del mundo. El panel elaborará informes anuales sobre las capacidades, los riesgos y las tendencias de la IA, junto con informes específicos sobre los riesgos emergentes.
  • Diálogo sobre políticas de gobernanza de la IA, con el objetivo de compartir las mejores prácticas, promover un entendimiento común sobre la implementación de medidas de gobernanza de la IA por parte de los desarrolladores y los usuarios de los sectores público y privado para mejorar la interoperabilidad internacional de la gobernanza de la IA, compartir voluntariamente incidentes significativos de IA que hayan sobrepasado la capacidad de respuesta de los organismos estatales y debatir sobre los informes del grupo internacional de científicos expertos en IA.
  • Intercambio de normas sobre la IA, conectar representantes de organizaciones nacionales e internacionales de normalización, empresas tecnológicas, la sociedad civil y representantes del grupo internacional de científicos para garantizar la interoperabilidad técnica de los sistemas de IA a nivel global.
  • Red de desarrollo de la capacidad en materia de IA, con el objetivo de acelerar y alinear los esfuerzos regionales y mundiales de capacitación tanto de desarrolladores como de empleados públicos para garantizar el respeto, la protección y el cumplimiento de los derechos humanos y promover el desarrollo, poniendo datos e infraestructuras a disposición de investigadores y emprendedores sociales que busquen aplicar la IA a casos de interés público local.
  • Creación de un fondo mundial para la IA, para mejorar el acceso a facilitadores de la IA orientados a impulsar el empoderamiento local en pro de los ODS mediante recursos informáticos compartidos; entornos y herramientas de análisis comparativo y de pruebas; soluciones de gobernanza, seguridad e interoperabilidad de aplicación mundial; conjuntos de datos e investigaciones sobre cómo combinar datos y modelos para proyectos relacionados con los ODS; así como repositorios de modelos de IA y conjuntos de datos seleccionados para los ODS.
  • Creación de un marco mundial de datos sobre IA, con el objetivo de establecer definiciones y principios para la gobernanza global de los datos de entrenamiento de IA, promoviendo la diversidad cultural y lingüística, así como establecer normas comunes sobre la procedencia y el uso de los datos de entrenamiento de IA para una rendición de cuentas transparente y basada en los derechos de todas las personas, desarrollando ecosistemas locales de IA a nivel mundial.
  • Creación de una oficina de IA en la Secretaría General de las Naciones Unidas para apoyar y coordinar la implementación de estas propuestas.

Este informe se enmarca en el Pacto para el Futuro (5) adoptado recientemente por los 193 Estados miembros de la ONU, que incorpora 56 acciones alineadas con los Objetivos de Desarrollo Sostenible (ODS) para hacer frente a los desafíos de nuestra era y proteger las necesidades y los intereses de las generaciones presentes y futuras. El documento incorpora como anexos el Pacto Digital Global y una Declaración sobre las Generaciones Futuras.

Se trata de un documento con objetivos ambiciosos en materia de gobernanza global y multinivel, financiación, desarrollo sostenible, paz y seguridad internacionales, ciencia, tecnología, innovación y cooperación digital.

En particular, se trata de fomentar un espacio digital inclusivo, abierto, seguro y protegido que respete, proteja y promueva los derechos humanos, con un enfoque de gobernanza de datos responsable, equitativo e interoperable, minimizando al máximo las brechas digitales, mejorando la gobernanza internacional de la IA en beneficio de la humanidad y acelerando el cumplimiento de los Objetivos de Desarrollo Sostenible.

Ya se dispone de la primera normativa global sobre IA en el mundo: el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial

Lo cierto es que junto a las múltiples ventajas que nos plantea la IA en todos los ámbitos de la sociedad, cabe resaltar las oportunidades que se vislumbran en materia de desarrollo sostenible y en la necesidad de trabajar, a nivel global, en el desarrollo de una IA basada en principios éticos y derechos humanos. En esta línea, hay multitud de trabajos (6) que intentan de alguna manera situarse en medio de un debate actual entre el utopismo tecnológico y el pensamiento distópico, reconociendo la IA como una oportunidad para alcanzar los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas y construir sociedades del conocimiento, pero situando los derechos y valores esenciales de la humanidad como meta para ir dando forma al rol de la IA en la sociedad.

Lo cierto es que estamos ante un desafío que afecta a toda la humanidad y que necesita establecer unas mínimas reglas para poder garantizar derechos y minimizar los riesgos potenciales en el uso de estas tecnologías. Por ello, más allá de la regulación objeto de este artículo que veremos a continuación, ya se dispone de la primera normativa global sobre IA en el mundo: el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial, (7) que ha sido firmado recientemente por la Comisión Europea, Estados Unidos, el Reino Unido y siete países más. Se trata del primer acuerdo internacional jurídicamente vinculante en materia de IA y que en la UE se aplicará mediante el recientemente publicado Reglamento de IA.

La firma de este Convenio garantizará un enfoque común planetario para abordar los riesgos que plantea la IA para los derechos humanos, la democracia y el Estado de Derecho. Los principios y las obligaciones previstos en el Convenio se aplicarán a las actividades dentro del ciclo de vida de los sistemas de IA de autoridades públicas o agentes privados que actúen en su nombre. En lo que respecta a los actores del sector privado, si bien aún deben abordar los riesgos y los impactos de los sistemas de IA de una manera que se alinee con los objetivos de la Convención, tienen la opción de aplicar directamente las obligaciones establecidas en el Convenio o implementar medidas alternativas apropiadas. Habrá que seguir muy de cerca el despliegue de este Convenio y si otros países centrados en la IA, fundamentalmente Asia, Oriente Medio y Rusia se suman también a este pacto mundial.

II. Algunos apuntes sobre el Reglamento europeo de inteligencia artificial

El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008 (UE) n.o 167/2013 (UE) n.o 168/2013 (UE) 2018/858 (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial, en adelante RIA o Reglamento), se publicó en el DOUE el 12 de julio de 2024, (8) entró en vigor el 1 de agosto de este año y, a nivel general, será de aplicación a partir del 2 de agosto de 2026. No obstante, se han establecido plazos específicos a tener en cuenta:

  • 6 meses para las disposiciones generales y los sistemas prohibidos.
  • 12 meses para los modelos de IA de uso general (capítulo V); los temas relativos a la Gobernanza (capítulo VII); la confidencialidad (art. 78) y el capítulo XIII de sanciones (excepto multas a proveedores de modelos de IA de uso general, artículo 101).
  • 36 meses para las reglas de clasificación de los sistemas de IA de alto riesgo y obligaciones derivadas (art. 6.1).

A pesar de que, como diversos autores han señalado, el RIA es una norma compleja (Barrio Andrés, 2024), y que hay aspectos relacionados con el impacto de la IA que no están recogidos en este Reglamento, como el uso de IA en defensa; la creciente concentración de datos, algoritmos y poder en muy pocas empresas; el aumento de la desigualdad por esta concentración dentro y entre países; el impacto de IA en la adicción a la tecnología sobre todo entre jóvenes; la polarización de sociedades por la maximización de modelos de negocios de publicidad, etc. (Richard Benjamins, 2024), se trata sin duda de un punto de partida absolutamente necesario para abordar los enormes retos que supone la incorporación de la IA en nuestras vidas, máxime cuando es más que evidente el uso generalizado de ChatGPT que, en agosto de 2024, alcanzó ya los 200 millones de usuarios semanales, el doble que hace menos de un año.

Tiene como objetivo principal aumentar la confianza en la IA mediante la armonización de normas comunes para los sistemas de IA de alto riesgo

Esta regulación tiene como objetivo principal aumentar la confianza en la IA mediante la armonización de normas comunes para los sistemas de IA de alto riesgo, para garantizar que esta tecnología respete los derechos fundamentales, los valores y la seguridad de la ciudadanía de la UE. Por otro lado, se garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, impidiendo que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el propio Reglamento lo autorice expresamente.

El artículo 3 del RIA incorpora 68 definiciones de conceptos que aparecen recogidos en la norma y, en particular, se concreta la definición de sistema de IA como «un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales».

Es importante, también, distinguir un sistema de IA de un modelo de IA de uso general, entrenado con un gran volumen de datos, que tiene un grado considerable de generalidad, capaces de realizar una gran variedad de tareas y que pueden integrarse en diversos sistemas o aplicaciones de IA. ChatGPT sería un ejemplo de este tipo de modelo.

En este sentido, el RIA establece obligaciones particulares a los proveedores de este tipo de soluciones ya que, como se indica en el Considerando 101 del RIA, «los modelos que suministran pueden constituir la base de diversos sistemas de etapas posteriores, que a menudo son suministrados por proveedores posteriores que necesitan entender bien los modelos y sus capacidades, tanto para permitir la integración de dichos modelos en sus productos como para cumplir sus obligaciones en virtud del presente Reglamento o de otros reglamentos. Por consiguiente, deben establecerse medidas de transparencia proporcionadas, lo que incluye elaborar documentación y mantenerla actualizada y facilitar información sobre el modelo de IA de uso general para su uso por parte de los proveedores posteriores. El proveedor del modelo de IA de uso general debe elaborar y mantener actualizada la documentación técnica con el fin de ponerla a disposición, previa solicitud, de la Oficina de IA y de las autoridades nacionales competentes».

Precisamente, debido a las capacidades de gran impacto de estos modelos se considera que determinados modelos de IA de uso general plantean un riesgo sistémico. Para mitigar estos riesgos, los proveedores deben cumplir requisitos más estrictos (Capítulo V RIA).

El RIA establece un código normativo único

En su ámbito de aplicación, el RIA establece un código normativo único, incluso para los particulares afectados por los sistemas de IA en el mercado europeo, distinguiendo entre:

  • Proveedores: persona física o autoridad pública que desarrolle (o para la que se desarrolle) un sistema de IA o un modelo de IA de uso general y lo introduzca en el mercado, o ponga en servicio el sistema de IA, con su propio nombre o marca.
  • Importadores: Una persona física o jurídica, ubicada o establecida en la Unión, que introduzca en el mercado un sistema de IA de un proveedor establecido fuera de la UE.
  • Distribuidores: Una persona física o jurídica que forme parte de la cadena de suministro, distinta del proveedor o el importador, que comercialice un sistema de IA en el mercado de la Unión.
  • Responsables del despliegue: Una persona física o jurídica o autoridad pública que utilice un sistema de IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de carácter no profesional.

Entre las principales exclusiones, cabe destacar los sistemas utilizados exclusivamente con fines militares, de defensa o de seguridad nacional, así como aquellos sistemas con fines únicamente de investigación y desarrollo científicos; las actividades de investigación, prueba o desarrollo relativas a sistemas o modelos de IA antes de su introducción en el mercado o puesta en servicio, así como las personas físicas que utilicen sistemas de IA en el ejercicio de una actividad puramente personal de carácter no profesional.

El RIA establece mayores restricciones y obligaciones cuanto mayor es el riesgo

El Considerando 27 del Reglamento nos recuerda que, además del enfoque basado en los riesgos, la base de esta normativa es garantizar que los sistemas de IA sean éticos y confiables, haciendo referencia a los siete principios establecidos en las Directrices éticas para una IA fiable de 2019: acción y supervisión humanas; solidez técnica y seguridad; gestión de la privacidad y de los datos; transparencia; diversidad, no discriminación y equidad; bienestar social y ambiental, y rendición de cuentas. Para ello, una herramienta imprescindible serán las evaluaciones de impacto relativas a los derechos fundamentales para los sistemas de IA de alto riesgo (artículo 27) y la supervisión por la autoridad de vigilancia de mercado, sin perjuicio de la actuación de la Oficina de IA y Autoridades nacionales de supervisión (Campos Acuña, 2024).

Siguiendo un enfoque basado en el riesgo potencial en el uso de la IA, el Reglamento establece mayores restricciones y obligaciones cuanto mayor es el riesgo, distinguiendo entre riesgo inaceptable, alto riesgo, riesgo limitado y mínimo riesgo.

Riesgo inaceptable

Son prácticas de IA prohibidas (art. 5 RIA):

  • El uso de técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento de una persona o un grupo de personas, haciéndoles tomar una decisión que de otro modo no habrían tomado, de una manera que probablemente les cause un perjuicio considerable.
  • La explotación de las vulnerabilidades de una persona física o un grupo de personas derivadas de su edad o discapacidad, o de una situación social o económica, con la finalidad o el efecto de alterar sustancialmente su comportamiento con una probabilidad razonable de causarles perjuicios considerables.
  • Puntuación ciudadana (social scoring). Sistemas de IA para la evaluación o clasificación de personas físicas o grupos de personas durante un período determinado en función de su comportamiento social o sus características personales, que pueden dar lugar a un trato perjudicial o desfavorable en contextos sociales no relacionados con aquellos en los que se recabaron los datos, o a un trato injustificado o desproporcionado
  • Sistemas de IA para evaluar o predecir el riesgo de que una persona física cometa un delito, basándose únicamente en su perfil o sus rasgos de personalidad.
  • Sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión.
  • Sistemas de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos, excepto cuando su uso esté destinado a fines médicos o de seguridad.
  • Sistemas de IA de categorización biométrica que clasifican individualmente a las personas físicas basándose en sus datos biométricos para deducir o inferir determinados datos sensibles.
  • Sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de garantía del cumplimiento de la ley, con ciertas excepciones sujetas a condiciones y garantías.

Riesgo alto

Sistemas que plantean un riesgo significativo de daño para la salud, la seguridad o los derechos fundamentales (artículo 6 RIA). Se distinguen dos grupos:

  • 1. Los sistemas enumerados en el Anexo I del RIA, se clasificarán de alto riesgo si cumplen dos condiciones:
    • a. Que el sistema de IA sea un producto incluido en la legislación de armonización, o sea un componente de seguridad de estos productos.
    • b. Que, en virtud de la legislación de armonización, el producto o componente deba someterse a una evaluación de la conformidad de terceros.
  • 2. El Anexo III del RIA recoge la lista de sistemas de IA de alto riesgo en función del ámbito en el que se utilizan y sus aplicaciones específicas. Esta lista será revisada, junto a la lista de prácticas prohibidas, una vez al año a partir de la entrada en vigor del Reglamento (artículo 112 RIA). Algunos ejemplos son la biometría, gestión de infraestructuras críticas (gas, agua, electricidad…), prevención e investigación de delitos, sistemas utilizados para determinar la admisión a centros educativos, evaluación de resultados, migración, asilo y gestión del control fronterizo, servicios privados como seguros, banca…, administración de justicia y procesos democráticos, gestión empleados, etc.

Los sistemas de IA de alto riesgo requieren, entre otros requisitos:

  • Implantar y mantener un sistema de gestión de riesgos durante todo el ciclo de vida del sistema.
  • Garantizar la calidad de los datos de entrenamiento, validación y prueba mediante prácticas adecuadas de gobernanza y gestión de datos.
  • Elaborar y mantener actualizada la documentación técnica del sistema.
  • Proporcionar instrucciones de uso fáciles de entender para los responsables del despliegue.
  • Permitir una supervisión humana efectiva durante su uso.
  • Alcanzar un nivel adecuado de precisión, solidez y ciberseguridad.

Las entidades locales, tanto en los procesos de contratación como si son proveedores de sistemas de IA, estarán obligadas a:

  • Velar porque los sistemas cumplan los requisitos establecidos en el RIA y acreditar su conformidad, previa solicitud motivada de la autoridad competente.
  • Establecer un sistema de gestión de calidad sólido.
  • Conservar la documentación sobre el sistema y ponerla a disposición de las autoridades, incluyendo cualquier archivo de registro generado bajo su control.
  • Velar porque los sistemas se sometan a las evaluaciones de conformidad correspondientes, elaborar una declaración UE de conformidad y colocar el marcado CE en los sistemas.
  • Registrar el sistema en la base de datos de la UE de sistemas de alto riesgo.
  • Adoptar las medidas correctoras necesarias, incluida la suspensión o la retirada de los sistemas en caso de no conformidad.

Por otro lado, cuando las entidades locales utilicen un sistema de IA, como responsables del despliegue, además de, en determinados casos, realizar una evaluación de impacto en materia de derechos fundamentales, tendrán como obligaciones:

  • Adoptar medidas técnicas y organizativas adecuadas para garantizar que dichos sistemas se utilizan con arreglo a las instrucciones de uso.
  • Garantizar que las tareas de supervisión humana son realizadas por personas con la competencia adecuada.
  • Asegurarse de que los datos de entrada sean pertinentes y suficientemente representativos en vista de la finalidad prevista del sistema, en la medida en que los implantadores ejerzan el control sobre dichos datos.
  • Vigilar el funcionamiento del sistema e informar de cualquier riesgo e incidente a los proveedores, importadores, distribuidores y autoridades de vigilancia del mercado.
  • Conservar los archivos de registro generados bajo su control.
  • Informar a sus empleados y a los representantes de los trabajadores antes de implantar un sistema de IA de alto riesgo en el lugar de trabajo.
  • Informar a todas las personas que puedan verse afectadas por el uso de sistemas que tomen decisiones o colaboren en los procesos de toma de decisiones.
  • Cooperar con las autoridades competentes.
  • Asegurarse de que los empleados y otras personas a quienes se encomiende en su nombre el manejo y el uso de los sistemas de IA tienen un nivel adecuado de alfabetización en materia de IA.
El RIA refuerza las obligaciones en materia de transparencia

El RIA refuerza también las obligaciones en materia de transparencia, independientemente de que se trate o no de un sistema de IA de alto riesgo, para los usos siguientes:

  • Sistemas de IA destinados a interactuar directamente con personas físicas: los proveedores deben diseñar el sistema de tal manera que las personas físicas afectadas estén informadas de que están interactuando con un sistema de IA.
  • Sistemas que generen contenido sintético de audio, imagen, video o texto: los proveedores velarán por que la información de salida del sistema de IA esté marcada en un formato legible por máquina y que sea posible detectar que ha sido generada o manipulada de manera artificial.
  • Sistemas de reconocimiento de emociones o de categorización biométrica: los responsables del despliegue deberán informar del funcionamiento del sistema a las personas físicas expuestas a él.
  • Sistemas que generen o manipulen imágenes o contenidos de audio o vídeo que constituyan una ultrafalsificación, y contenidos que informen sobre asuntos de interés público: se deberá informar de que el contenido se ha generado o manipulado de manera artificial.

En resumen, es una obligación asegurar que los sistemas de IA se desarrollen y se utilicen de forma que sea posible su trazabilidad y explicabilidad adecuadas, garantizando que la ciudadanía tiene el control y es consciente de que está interactuando con un sistema de IA, así como, de la misma forma que ocurre con el tratamiento de datos personales, las personas afectadas sean informadas acerca de sus derechos.

Riesgo limitado

El Considerando 53 del RIA se refiere a casos específicos en los que los sistemas de IA no entrañan un riesgo considerable de causar un perjuicio a los intereses jurídicos, ya que no influyen en la toma de decisiones o no perjudican dichos intereses sustancialmente. Se trata pues de un sistema de IA que no afecta al fondo, ni por consiguiente al resultado, de la toma de decisiones, ya sea humana o automatizada, siempre que se cumplan determinadas condiciones (algunos ejemplos pueden ser sistemas de IA que transforman datos no estructurados en datos estructurados; que clasifican en categorías los documentos recibidos; que detectan duplicados; que mejoran el lenguaje utilizado en documentos ya redactados; que realizan tareas preparatorias de gestión de archivos, como la indexación, la búsqueda, el tratamiento de texto y del habla o la vinculación de datos a otras fuentes de datos, o bien los sistemas de IA utilizados para la traducción de documentos).

El RIA impone la obligación de proporcionar listas exhaustivas de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y que no lo sean

En estos casos, se deberá garantizar también la trazabilidad y la transparencia, y los proveedores deberán elaborar la documentación de la evaluación previamente a la introducción en el mercado o la entrada en servicio de dicho sistema de IA y facilitarla a las autoridades nacionales competentes cuando estas lo soliciten. Igualmente, los proveedores tienen la obligación de registrar el sistema en la base de datos de la UE. De hecho, el Reglamento impone la obligación a la Comisión de proporcionar listas exhaustivas de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y de casos de uso que no lo sean.

Riesgo mínimo

Todos los demás sistemas de IA pueden desarrollarse y utilizarse conforme a la legislación vigente sin obligaciones adicionales. Los proveedores de estos sistemas pueden optar voluntariamente por aplicar las directrices para una IA digna de confianza y adherirse a códigos de conducta voluntarios.

A su vez, el Reglamento se hace eco de la necesaria gobernanza de los datos que se debe impulsar desde cada organización. En particular, el Considerando 67 señala la importancia y el papel esencial de los datos de alta calidad a la hora de proporcionar una estructura y garantizar el funcionamiento de muchos sistemas de IA, con vistas a no generar algún tipo de discriminación prohibida por el Derecho de la UE. Incluso señala que los conjuntos de datos para el entrenamiento, la validación y la prueba, deben ser pertinentes, lo suficientemente representativos y, en la medida de lo posible, ser completos y estar libres de errores. Recuerda, asimismo, el Reglamento que, para facilitar el cumplimiento de la normativa en materia de protección de datos, la gobernanza debe incluir, en el caso de los datos personales, la transparencia sobre el fin original de la recopilación de los datos. Por su parte, los conjuntos de datos deben tener también las propiedades estadísticas adecuadas, con especial énfasis en la mitigación de los posibles sesgos «que puedan afectar a la salud y la seguridad de las personas físicas, tener repercusiones negativas en los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida por el Derecho de la Unión, especialmente cuando los datos de salida influyan en la información de entrada de futuras operaciones (bucles de retroalimentación). [...] Los requisitos relacionados con la gobernanza de datos pueden cumplirse recurriendo a terceros que ofrezcan servicios certificados de cumplimiento, incluida la verificación de la gobernanza de datos, la integridad del conjunto de datos y las prácticas de entrenamiento, validación y prueba de datos, en la medida en que se garantice el cumplimiento de los requisitos en materia de datos del presente Reglamento».

Junto a las soluciones que aporta el Reglamento (requisitos y obligaciones a cumplir por desarrolladores y responsables de despliegue, alfabetización, documentación técnica, trazabilidad, vigilancia humana —evitar el «sesgo de automatización»—, códigos de conducta, evaluación de impacto sobre derechos humanos, evaluación de la conformidad, códigos de buenas prácticas, transparencia y explicabilidad de los sistemas), sería conveniente que, como se abordará en el próximo epígrafe, las entidades locales se dotaran de instrumentos normativos propios, junto con guías, protocolos, instrucciones, para aterrizar la aplicación del RIA alineada con la estrategia corporativa y el modelo de gestión, de cara a su despliegue, pero también para evitar estos potenciales riesgos a los derechos y libertades de la ciudadanía. En este sentido, cabe ser muy cuidadosos con el uso de herramientas tipo ChatGPT por parte del personal de las organizaciones, en el ejercicio de sus funciones, si no se ha comprobado previamente el cumplimiento de los requisitos establecidos en la normativa vigente, ya que pueden producirse fugas de datos y vulneración de derechos de la ciudadanía o de empresas de forma involuntaria.

Sería conveniente que las EELL se dotaran de instrumentos normativos propios para aterrizar la aplicación del RIA alineada con la estrategia corporativa y el modelo de gestión

Por último, es importante destacar el impulso de la innovación que el RIA positiviza en el Capítulo VI con la idea de fomentar el desarrollo de la ciencia y de la investigación. En particular, se regulan los denominados espacios controlados de pruebas para la IA, a nivel nacional pero también, adicionalmente, a escala regional o local, o conjuntamente con autoridades competentes de otros Estados miembros (artículo 57.2 RIA).

Estos espacios controlados de pruebas para la IA deberán tener unas «reglas del juego» que, para evitar que se produzca una fragmentación en la UE, se establece en el artículo 58 del Reglamento la adopción de actos de ejecución por parte de la Comisión que especifiquen las disposiciones detalladas para el establecimiento, el desarrollo, la puesta en práctica, el funcionamiento y la supervisión de los espacios controlados de pruebas para la IA, con principios comunes sobre los criterios de admisibilidad y selección para participar en estos espacios, los procedimientos para la solicitud, la participación, la supervisión, la salida y la finalización; así como las condiciones aplicables a los participantes.

Importante tener en cuenta que el artículo 59 del RIA abre la posibilidad de tratamiento ulterior de datos personales recabados lícitamente con otros fines para el desarrollo de determinados sistemas de IA en favor del interés público en el espacio controlado de pruebas para la IA, con el objetivo de desarrollar, entrenar y probar determinados sistemas de IA, siempre que se cumplan todas las condiciones establecidas en este mismo artículo:

  • Que los sistemas de IA se desarrollen para que una autoridad pública u otra persona física o jurídica proteja un interés público esencial en uno o varios de los siguientes ámbitos: la seguridad y la salud públicas, la protección y mejora del medio ambiente, la sostenibilidad energética, la seguridad y resiliencia de los sistemas de transporte, movilidad infraestructuras críticas y redes, la eficiencia y la calidad de la Administración pública y de los servicios públicos.
  • Que los datos tratados resulten necesarios para cumplir uno o varios de los requisitos mencionados en el capítulo III, sección 2, cuando dichos requisitos no puedan cumplirse efectivamente mediante el tratamiento de datos anonimizados o sintéticos o de otro tipo de datos no personales.
  • Que existan mecanismos de supervisión eficaces para detectar si pueden producirse durante la experimentación en el espacio controlado de pruebas riesgos elevados para los derechos y libertades de los interesados, así como mecanismos de respuesta para mitigar sin demora dichos riesgos y, en su caso, detener el tratamiento.
  • Que los datos personales que se traten en el contexto del espacio controlado de pruebas se encuentren en un entorno de tratamiento de datos funcionalmente separado, aislado y protegido, bajo el control del proveedor potencial, y que únicamente las personas autorizadas tengan acceso a dichos datos
  • Que los datos personales creados en el espacio controlado de pruebas no salgan del espacio controlado de pruebas.
  • Que el tratamiento de datos personales en el contexto del espacio controlado de pruebas no dé lugar a medidas o decisiones que afecten a los interesados ni afecte a la aplicación de sus derechos establecidos en el Derecho de la Unión en materia de protección de datos personales.
  • Que los datos personales tratados en el contexto del espacio controlado de pruebas se protejan mediante medidas técnicas y organizativas adecuadas y se eliminen una vez concluida la participación en dicho espacio o cuando los datos personales lleguen al final de su período de conservación.
  • Que los archivos de registro del tratamiento de datos personales en el contexto del espacio controlado de pruebas se conserven mientras dure la participación en el espacio controlado de pruebas, salvo que se disponga otra cosa en el Derecho de la Unión o el Derecho nacional.
  • Que se conserve una descripción completa y detallada del proceso y la lógica subyacentes al entrenamiento, la prueba y la validación del sistema de IA junto con los resultados del proceso de prueba como parte de la documentación técnica a que se refiere el anexo IV.
  • Que se publique una breve síntesis del proyecto de IA desarrollado en el espacio controlado de pruebas, junto con sus objetivos y resultados previstos, en el sitio web de las autoridades competentes; esta obligación no comprenderá los datos operativos sensibles relativos a las actividades de las autoridades garantes del cumplimiento del Derecho, del control fronterizo, de la inmigración o del asilo.

En el caso de que la finalidad sea la prevención, investigación, detección o enjuiciamiento de delitos o de ejecución de sanciones penales, incluidas la protección frente a amenazas para la seguridad pública y la prevención de dichas amenazas, el tratamiento de datos personales en los espacios controlados de pruebas para la IA debe, además, basarse en un Derecho específico, de la Unión o nacional.

Asimismo, el RIA permite a los proveedores o proveedores potenciales realizar pruebas de los sistemas de IA de alto riesgo en condiciones reales en cualquier momento antes de la introducción en el mercado o la puesta en servicio del sistema de IA por cuenta propia o en asociación con uno o varios responsables del despliegue o responsables del despliegue potenciales, sin perjuicio de cualquier revisión ética que se exija en el Derecho de la Unión o nacional, y siempre que no se incurra en alguna de las prohibiciones del artículo 5 del Reglamento.

III. La inteligencia artificial en el proceso de transformación digital de las entidades locales: sin datos no hay inteligencia

Lo cierto es que con una transformación digital aún en precario, muchos gobiernos locales empiezan a elucubrar con la incorporación de la IA en sus organizaciones, sobre todo a raíz de la aparición de la llamada IA generativa, popularizada masivamente desde 2023. Pero no podemos olvidar que los sistemas actuales de IA se alimentan de datos, y en función de su calidad tendremos unos resultados u otros. Por lo tanto, antes de decidir qué IA o tecnología disruptiva utilizar, es necesario identificar para qué la queremos y establecer bases sólidas para poder gestionar la calidad, la arquitectura, la gobernanza, la seguridad y la privacidad, los sesgos, entre otros muchos desafíos, desarrollando en paralelo las habilidades de las personas para gestionar estos datos. Es esencial, pues, una gobernanza eficaz para garantizar que el desarrollo e implementación de la IA sean seguros y confiables, en el marco de una estrategia global de transformación de las organizaciones. Porque la diferencia no está en disponer de estos datos y aplicarles tecnología, sino en ser capaces de crear un ecosistema donde los datos se conviertan en conocimiento para tomar decisiones focalizadas en los objetivos organizacionales, y mejorar así la vida de las personas.

Lamentablemente, la realidad actual de la Administración local en su proceso de digitalización ha provocado, entre otras muchas cuestiones, una heterogeneidad de infraestructuras, modelos, metodologías y niveles de implementación, generalizando así una manifiesta asincronía de los servicios públicos digitales implementados, en función del nivel de madurez de cada organización.

Tampoco ayuda demasiado a las entidades locales el amplísimo marco normativo actual al que se tienen que enfrentar que plantea, como poco, un escenario de esquizofrenia organizativa ya que, entre otras cuestiones, el ámbito material está muy fraccionado; las leyes y reglamentos de desarrollo no abordan los aspectos prácticos a la hora de implementar esta transformación y su carácter, en algunos casos, marcadamente técnico, obliga a establecer, necesariamente, metodologías de trabajo multidisciplinares que chocan frontalmente con formas de trabajo tradicionales; sin olvidar la enorme brecha aún vigente en cuanto a perfiles profesionales capaces de abordar este cambio de paradigma.

Ello ha provocado, entre otras múltiples consecuencias, cierta frustración entre los propios usuarios internos y entre la ciudadanía, que no perciben que la introducción de la tecnología en los procesos tenga los resultados esperados.

La diferencia está en ser capaces de crear un ecosistema donde los datos se conviertan en conocimiento para tomar decisiones

Efectivamente, el desarrollo de la administración digital no se ha visto reflejado en una verdadera innovación de las entidades locales que, en general, se han limitado a aplicar la tecnología a su alcance a los procesos tal y como se venían realizando en el modelo tradicional, en lugar de utilizar esta tecnología para transformar estos procesos generando realmente valor público para la sociedad, además de mejorar internamente en eficiencia y eficacia. Las Administraciones públicas, con carácter general, se han limitado a «electronificar» procesos y prestarlos a distancia, pero sin que ello suponga cambios disruptivos en la forma de prestación de los servicios públicos.

Llegados a este punto, no deberíamos caer en el mismo error con la irrupción de la IA. Parece claro, después de casi un cuarto de siglo XXI, que la transformación integral en la que están inmersas las Administraciones públicas tiene un carácter marcadamente poliédrico, donde ahora además se incorporan tecnologías emergentes que, sin duda, van a propiciar un salto exponencial en este cambio de paradigma. Es básico, pues, que las entidades locales se doten de una estrategia de carácter holístico, alineada con los objetivos estratégicos y agendas globales y con el marco normativo completo de transformación digital (Buen Gobierno y Buena Administración), que incluye la normativa en materia de protección de datos y seguridad de la información, transparencia, acceso y reutilización de la información, ley de datos y ley de gobernanza de datos, marco europeo de interoperabilidad, integridad institucional, entre otras. En esta estrategia local, con una visión a medio y largo plazo, se deben identificar las principales líneas de actuación para afrontar todos estos nuevos retos y conseguir una mayor calidad de los servicios públicos y eficiencia en su gestión, la satisfacción de la ciudadanía y de las empresas en su relación con la Administración, contribuyendo, así, a potenciar el crecimiento económico, la mejora de la calidad de vida de la sociedad, la reducción de desigualdades y cohesión social, e impulsando la transición ecológica y digital.

A su vez, esta estrategia debe materializarse en instrumentos ejecutivos, tipo agendas digitales, (9) como marcos de referencia para el desarrollo digital, sostenible y resiliente del municipio, que marquen la hoja de ruta, metodologías, ámbitos de actuación, objetivos estratégicos y operativos, acciones concretas medibles y auditables por parte de todos los agentes implicados (personal de la Administración, ciudadanía, empresas, entidades…).

Junto a estos instrumentos estratégicos, es necesario también definir el modelo de gestión de la entidad local, el modelo de gobernanza de los datos propio de cada institución, así como la metodología y procesos para llevarlos a cabo.

Es necesario definir el modelo de gestión, el modelo de gobernanza de los datos, así como la metodología y procesos para llevarlos a cabo

Avanzar hacia un modelo de gestión inteligente, requiere transitar de un modelo tradicional «docucéntrico» a un modelo «datacéntrico» que permita evolucionar hacia una organización administrativa inteligente, estructurada alrededor de una arquitectura integrada de servicios orientada a procesos ágiles, simplificados, comunes, donde la prioridad se centre en prestar unos servicios públicos de calidad, de forma personalizada, proactiva e, incluso, predictiva, que base su mejora continua en el análisis de datos y la rendición de cuentas permanente. Un modelo de gestión basado en la transparencia, el uso inteligente de los datos, la generación de valor y la innovación a través de instrumentos que permitan controlar el ciclo de vida de la información, documentación, expedientes y datos que provengan del despliegue de las ciudades inteligentes.

Pero, además, como la IA se aplica sobre los datos, es necesario establecer un modelo de gobernanza con la finalidad de controlar los datos que se generan e ingresan en la organización, independientemente del origen de la fuente. El objetivo último es consolidar una organización Data Driven donde la toma de decisiones estratégicas se fundamente en datos de calidad y, al mismo tiempo, la explotación de estos datos suponga un estímulo para la innovación de los productos y servicios que se prestan a la ciudadanía. Tomando como referencia la definición de gobernanza de los datos que sugiere el Data Governance Institute: «a system of decision rights and accountabilities for information-related processes, executed according to agreed-upon models which describe who can take what actions with what information, and when, under what circumstances, using what methods», se puede concluir que es objeto de la gobernanza de los datos establecer en las organizaciones aspectos relacionados con la estructura organizativa de la propia gobernanza, las políticas, estándares, directrices y protocoles para toda la organización, así como los diferentes perfiles y responsabilidades. (10)

Por último, y no menos importante, precisamente porque estamos transitando hacia una nueva forma de gestionar lo público, las entidades locales, además de cumplir con la normativa vigente, deben dotarse de normativa interna, políticas, protocolos y metodologías que faciliten este cambio cultural. Asimismo, la incorporación progresiva de las tecnologías disruptivas, en especial de la IA, precisa también que las entidades locales adopten una metodología que, de forma innovadora y transversal, facilite el desarrollo de pruebas piloto que permitan ensayar el uso de dichas tecnologías y evaluar los efectos e impactos de su uso en la prestación de los servicios, tanto internamente como por parte de los usuarios del servicio.

De hecho, como hemos visto en el apartado anterior, este es el espíritu que subyace en la UE y, precisamente, la Oficina Europea de IA lanzó una convocatoria de manifestación (11) de interés para participar en la elaboración del primer Código de prácticas de IA de propósito general, que ya ha recibido la petición de participación de casi 1.000 organizaciones y personas de todo el mundo para la elaboración de este código que se preparará mediante un proceso de redacción iterativo en abril de 2025, nueve meses después de la entrada en vigor del Reglamento de IA, con el objetivo de facilitar la aplicación adecuada de la normativa en los modelos de IA de propósito general, con o sin riesgos sistémicos.

En todo caso, es innegable la oportunidad histórica que supone para las Administraciones públicas la incorporación de la IA como palanca de cambio radical del modelo tradicional de prestación de servicios públicos. Ya se está experimentando en ámbitos como la atención ciudadana, sistemas de vigilancia, la automatización de tareas rutinarias, procesos de análisis de grandes cantidades de datos, hasta la posibilidad de toma de decisiones públicas de forma automatizada, prestación de servicios públicos personalizados y proactivos, realizar simulaciones, gemelos digitales, predicciones, etc.

Pero más allá de la experimentación, absolutamente necesaria para avanzar, es necesario insistir en la necesidad de una visión global y estratégica que, ahora que disponemos de normativa en materia de IA, nos permita controlar dónde y para qué necesitamos la IA, qué infraestructuras y perfiles profesionales necesitamos, cuáles son los potenciales riesgos y cómo mitigarlos.

Es claramente inspiradora para las entidades locales la renovada Estrategia de Inteligencia Artificial 2024

En este sentido es claramente inspiradora para las entidades locales la renovada Estrategia de Inteligencia Artificial 2024 (12) como marco para acelerar el desarrollo y expansión de la IA en España, y que se articula en torno a tres ejes principales, que se desarrollarán a través de ocho líneas de acción:

  • Reforzar las palancas claves para el desarrollo de la IA, es decir, potenciar la inversión en supercomputación, generar capacidades de almacenamiento en condiciones de sostenibilidad, desarrollar modelos y datos que constituyan una infraestructura pública de la IA y fomentar el talento especializado en IA.
  • Facilitar la expansión de la IA en el sector público y privado, fomentando la innovación y la ciberseguridad.
  • Fomentar una IA transparente, ética y humanística, asegurando que el desarrollo y uso de la IA en España sea responsable y respetuosa con los derechos humanos, la igualdad, la privacidad y la no discriminación.

Pero, sin duda, el éxito de esta estrategia depende, entre otros múltiples factores, de la apertura y el acceso a datos de calidad como materia prima necesaria para entrenar y evaluar modelos de IA que beneficien a toda la sociedad. Precisamente porque es necesario contemplar de forma conjunta la vinculación de la normativa de IA con el resto de normas en materia de protección de datos, reutilización, gobernanza y gestión inteligente de los datos, como elementos clave para avanzar efectivamente en la consecución de unas administraciones inteligentes, sostenibles, abiertas, inclusivas y sociales, la Estrategia de Inteligencia Artificial 2024 contempla acciones específicas para el impulso de la IA en el sector público y el desarrollo de modelos de IA avanzados, éticos y eficientes que mejorarán los servicios públicos e impulsarán el crecimiento económico. (13)

IV. Referencias

Almonacid Lamelas, V. «Reglamento (europeo) de Inteligencia Artificial: impactos y obligaciones que genera en los Ayuntamientos», Diario LA LEY, N.o 10553, Sección Tribuna, Julio de 2024, LA LEY.

Barrio Andrés, M. «Algunos claroscuros en el Reglamento Europeo de Inteligencia Artificial», Diario LA LEY, N.o 86, Sección Ciberderecho, julio de 2024, LA LEY.

Campos Acuña, C.:

  • «Las 15 claves del Reglamento Europeo de Inteligencia Artificial», El Consultor de los Ayuntamientos, julio 2024, LA LEY.
  • «Decálogo básico para la implantación de la Inteligencia Artificial en el ámbito local», El Consultor de los Ayuntamientos, mayo 2024, LA LEY.

Cerrillo i Martínez, A. y Moro Cordero, M.ª A. (2021). «La transformación digital de la Administración local», en Cerrillo i Martínez, A. (coord.) Barcelona: Fundación Democracia y Gobierno Local.

Cerrillo i Martínez, A. y Moro Cordero, M.ª A. (2022). «El Reglamento de Gobernanza de Datos y su impacto en las Administraciones públicas». Revista El Consultor de los Ayuntamientos. Madrid. LA LEY.

Cuatrecasas, «Reglamento (UE) de IA. Un marco jurídico pionero sobre inteligencia artificial. Guía práctica», julio 2024 https://www.cuatrecasas.com/resources/reglamento-de-ia-guia-practica-669112596b53c721695947.pdf?v1.78.0.20240830

Gamero Casado, E. (director). Pérez Guerrero, F.L. (coordinador). «Inteligencia artificial y sector público. Retos, límites y medios», ed. Tirant lo blanch, Valencia, 2023.

OCDE, «AI, data governance and privacy», junio 2024, n.o 22 https://www.oecd-ilibrary.org/science-and-technology/ai-data-governance-and-privacy_2476b1a4-en

Ponce Solé, J. (2019a). «Inteligencia artificial, derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico». Revista General de Derecho Administrativo, 50.

UNESCO, El aporte de la inteligencia artificial y las TIC avanzadas a las sociedades del conocimiento. Una perspectiva de Derechos, Apertura, Acceso y Múltiples actores, 2021, Ediciones UNESCO.

(1)

Los estudios «Gen-AI: Artificial Intelligence and the Future of Work», elaborado por el Fondo Monetario Internacional (FMI) en 2024 y «The Potentially Large Effects of Artificial Intelligence on Economic Growth» desarrollado por Goldman Sachs Global Investment Research en 2023 identifican importantes impactos de la IA tanto en el ámbito laboral como en el crecimiento económico. Entre sus conclusiones, según Goldman Sachs la IA podría automatizar hasta el 25% del trabajo actual; para el FMI el 40% del empleo global está expuesto a la IA; los países más desarrollados son los que van a tener mayores niveles de exposición (60%), en los países menos desarrollados esto llegará al 26%. Entre los aspectos positivos, señalan el ahorro en el coste laboral, la creación de nuevos empleos vinculados al uso de la IA y las mejoras de productividad.

Ver Texto
(2)

https://digital-strategy.ec.europa.eu/es/library/report-state-digital-decade-2024

Ver Texto
(3)

https://datos.gob.es/es/noticia/el-estado-de-la-innovacion-y-la-transformacion-digital-en-espana

Ver Texto
(4)

https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf

Ver Texto
(5)

https://www.un.org/sites/un2.un.org/files/sotf-the-pact-for-the-future.pdf

Ver Texto
(6)

Interesante el estudio publicado por la UNESCO en 2021 que aborda la incidencia de la IA y las TIC avanzadas en los Derechos Humanos, la apertura, el acceso a la información, y cómo es necesario un enfoque multidisciplinar y de multigobernanza para enfrentar tanto los desafíos como las oportunidades que presenta la IA https://unesdoc.unesco.org/ark:/48223/pf0000375796?s=09

Ver Texto
(7)

https://rm.coe.int/1680afae3c El acuerdo, conocido también como Framework Convention tiene como objetivo garantizar que el desarrollo y uso de esta tecnología «sea plenamente compatible» con los derechos humanos, la democracia y los principios de legalidad. Los estatutos obligan a establecer mecanismos locales dedicados a documentar y poner a disposición del público la información más relevante sobre los sistemas de IA y su uso. Estos datos «deben ser suficientes» para que las personas puedan entender, al menos en términos generales, cómo funcionan y cómo se emplea en diferentes ámbitos sociales, políticos y de interés general. Si los usuarios consideran que las decisiones adoptadas mediante el uso de un algoritmo o «basadas sustancialmente en él» son injustas, discriminatorias o erróneas, deberán tener la posibilidad de presentar una reclamación.

Ver Texto
(8)

https://www.boe.es/buscar/doc.php?id=DOUE-L-2024-81079

Ver Texto
(9)

Un ejemplo es la Agenda Digital del Ayuntamiento de Sant Feliu de Llobregat, aprobada conjuntamente con el Plan de Acción Local de la Agenda Urbana. Se trata de dos instrumentos estratégicos con horizonte 2030 conectados entre sí y alineados con los ODS de NNUU, así como estrategias y marco normativo global https://www.santfeliu.cat/documents/4f5378cc-d80d-444a-9bce-2cbeb046aaff/SDEEXPEDX.pdf

Ver Texto
(10)

En esta materia hay que tener presente también dos instrumentos normativos que han materializado la Estrategia Europea de Datos: 1. El Reglamento (UE) 2022/868 del Parlamento Europeo y del Consejo de 30 de mayo de 2022 relativo a la gobernanza europea de datos y por el que se modifica el Reglamento (UE) 2018/1724 (Reglamento de Gobernanza de Datos publicado en DOUE núm. 152, de 3 de junio de 2022). Este Reglamento tiene como objetivo crear los procesos y estructuras para promover la disponibilidad de datos para su reutilización entre sectores y facilitar el intercambio de datos de forma transfronteriza, aumentando así la confianza en los servicios de intermediación de datos, fomentando la cesión altruista de datos por todo el territorio de la UE, con la finalidad de posibilitar la creación de espacios comunes de datos interoperables en sectores estratégicos. 2. El Reglamento (UE) 2023/2854 del Parlamento Europeo y del Consejo, de 13 de diciembre de 2023, sobre normas armonizadas para un acceso justo a los datos y su utilización, y por el que se modifican el Reglamento (UE) 2017/2394 y la Directiva (UE) 2020/1828 (Reglamento de Datos publicado en DOUE núm. 2854 de 22 de diciembre de 2023). Este Reglamento, aplicable a datos personales y no personales, establece normes armonizadas sobre la puesta a disposición de datos, la facilitación del intercambio entre Servicios de tratamiento de datos, la introducción de salvaguardias contra el acceso ilícito de terceros a los datos no personales, y el desarrollo de normas de interoperabilidad para el acceso, la transferencia y la utilización de datos. Se trata pues de dos normas complementarias que tienen como objetivo crear un mercado único que facilite la libre circulación de datos dentro de la UE y entre sectores en beneficio de las empresas, investigadores, Administraciones públicas y sociedad en general, siempre de acuerdo con los principios y valores de la UE.

Ver Texto
(11)

https://digital-strategy.ec.europa.eu/en/news/ai-office-received-strong-interest-participation-drafting-first-general-purpose-ai-code-practice

Ver Texto
(12)

https://digital.gob.es/dam/es/portalmtdfp/DigitalizacionIA/Estrategia_IA_2024.pdf

Ver Texto
(13)

https://datos.gob.es/es/blog/reutilizacion-y-gobierno-de-datos-en-la-nueva-estrategia-de-ia-2024

Ver Texto