La inteligencia artificial (IA) supone una nueva etapa y oportunidad para la humanidad como una herramienta que, regida por principios éticos firmes, puede mejorar la vida de todos. En este momento en el que la IA avanza a pasos agigantados, la aprobación por el Parlamento de la Unión Europea del Reglamento europeo de inteligencia artificial el 13 marzo de 2024 supone un hito histórico. La Unión Europea se sitúa como líder mundial en la regulación del uso de la IA, en la fomentación de una innovación responsable y ética y reforzando la defensa de los derechos humanos, la democracia y el Estado de Derecho.
Odiseia, como asociación de referencia en España dedicada a la ética en IA, celebra esta regulación como oportunidad sin precedentes para modelar el futuro de la IA y aprovecha este momento histórico para afirmar públicamente que el Reglamento Europeo de Inteligencia Artificial:
Supone una transición de los principios de la ética del uso de la IA a normativas concretas y obligatorias. Ha sido un logro en los últimos años poder asentar y generalizar unos principios éticos de la IA. Los mismos han sido una base sólida para orientar la evolución y expansión de la IA y precisamente para orientar las regulaciones que deben implantarse. No obstante, la evolución tecnológica exige ir más allá de declaraciones. El Reglamento supone una la aplicación efectiva de los principios éticos mediante obligaciones claras y precisas, garantizando así un desarrollo y uso responsable de la IA.
Expresa el liderazgo mundial de la Unión Europea en la defensa de valores y la protección de los derechos fundamentales, la democracia y el Estado de Derecho. La Unión Europea adopta un papel pionero al regular varios usos de la IA. Este Reglamento no solo protege a los ciudadanos europeos sino que también podría servir de modelo para otras regiones del mundo.
Da seguridad jurídica y confianza en la tecnología. Aunque Europa no lidera la carrera tecnológica en IA, con el Reglamento establece un referente que da seguridad jurídica que facilita también las inversiones estables y brinda confianza pública hacia la IA.
El Reglamento es primera regulación general en el mundo, con vocación de permanencia ante el cambio. Este Reglamento no solo es el primero en su tipo a nivel mundial. Pese a la dificultad de regular el uso de una tecnología tan innovadora, como lo ha demostrado la eclosión de la IA generativa, cabe subrayar que está diseñado para perdurar, actualizarse, evaluar su efectividad y adaptarse a las futuras innovaciones tecnológicas.
El nuevo Reglamento como punto de partida determina unas líneas rojas de la IA prohibida, que se considera inaceptable en la UE. Así sucede con los sistemas dañinos, manipulativos o que explotan las vulnerabilidades de diversos colectivos. Las prohibiciones evitan la vigilancia masiva y la política predictiva. Igualmente se prohíben sistemas de “crédito social”, existentes en otras latitudes del mundo. Cuanto menos se limita o evita el uso de herramientas policiales discriminatorias y peligrosas especialmente de identificación biométrica y reconocimiento facial en espacios públicos.
El Reglamento sigue un muy acertado enfoque basado en el riesgo:
clasifica los sistemas de IA según su nivel de riesgo y establece obligaciones preventivas necesarias, evitando obstaculizar la innovación en los sistemas que no son de alto riesgo.
determina con bastante precisión los sistemas que son de alto riesgo para la salud, seguridad, vida e integridad de las personas y sus derechos fundamentales. Respecto de estos sistemas de alto riesgo establece un sistema de cumplimiento de obligaciones preventivas y en el diseño.
asienta un marco relativamente definido para la IA de propósito general y la generativa
permite el desarrollo de todo un ecosistema de sellos y certificaciones de asunción voluntaria para la IA que no se considere de alto riesgo.
El nuevo Reglamento se enfoca en garantizar la confianza y seguridad de la tecnología. Busca equilibrar el progreso tecnológico con las garantías y los intereses públicos a través de un mecanismo de supervisión efectivo, el cual incluye evaluaciones de riesgos y auditorías regulares para asegurar el cumplimiento de la normativa.
Se enfatizan técnicas de análisis de riesgos y estudios de impacto para la identificación y mitigación de riesgos. También la calidad y la gobernanza de datos juega un papel crucial. Estas obligaciones con las de robustez y precisión de los sistemas de IA pasan a ser esenciales para la evitación de los sesgos y la discriminación algorítmica. La supervisión y control humanos y la ciberseguridad de los sistemas de IA pasan a ser elementos centrales del sistema de garantías en el diseño.
En cualquier caso, cabe recordar que todos los sistemas de IA también deben cumplir las normas ya existentes. Especialmente el RGPD ya impone no pocas obligaciones respecto de la calidad de los datos, la explicabilidad & la transparencia, la seguridad y la privacidad.
Además, el Reglamento también cubre la IA Generativa, llamada como “General Purpose AI”. En caso de usar estos sistemas para alto riesgo, existe una obligación de transparencia por parte de los proveedores para que el implementador (“deployer”) pueda cumplir con el Reglamento, dado que varios de los requisitos del Reglamento requieren información que solo tiene el proveedor. Para GPAI sistémicos (los muy grandes de las grandes tecnológicas), existen también varias obligaciones como monitorear los impactos, informar de incidencias y el “red teaming”.
Sin perjuicio de una valoración general positiva, el Reglamento tiene insuficiencias y elementos que son susceptibles de críticas. Asimismo, hay que evitar que el Reglamento de IA suponga una barrera innecesaria a la innovación, al tiempo de sus desafíos en la implementación y eficacia normativa. La experiencia del RGPD nos lleva a subrayar la importancia de que la implantación del nuevo Reglamento de IA persiga la efectividad de sus objetivos. El Reglamento no ha de convertirse en un conjunto de barreras que limiten innecesariamente el uso de la IA y supongan un freno para la innovación y el desarrollo de una IA que sea positiva para la sociedad así como una barrera a la prosperidad en la UE. También el Reglamento o una mala interpretación o aplicación del mismo puede no ser una garantía efectiva de los derechos e intereses que intenta proteger.
Es por ello que con el Reglamento ya aprobado, la ética de la IA debe guiar el desarrollo y criterios de interpretación y aplicación del Reglamento para una IA responsable hacia el bien común. Es esencial desarrollar instituciones, normativas, criterios, directrices, normas armonizadas y normas técnicas, guías de aplicación y de buenas prácticas. Resta una inmensa labor por delante que debe seguir estando inspirada por ética de la IA. En ello ha participado activamente Odiseia y va a seguir haciéndolo en primera línea de España y de la Unión Europea para asegurar que la IA sirva al bien común.
Odiseia quiere ahora resaltar el papel insustituible de la ética de la IA y reivindicar también el papel de la sociedad civil en la interpretación y aplicación del nuevo Reglamento europeo de inteligencia artificial. La ética de la IA ha inspirado este Reglamento y los principios éticos también deben favorecer su interpretación y aplicación efectiva.
Asimismo, es importante recordar que la mayoría de sistemas de IA no son de alto riesgo. Respecto de ellos el Reglamento actúa como una fuente de inspiración para el cumplimiento voluntario de prácticas éticas en el desarrollo y aplicación de toda tecnología de IA. Odiseia va a continuar la intensa y amplia labor por delante relativa al fomento de la adopción voluntaria de estos principios éticos y regulatorios en estos ámbitos que el Reglamento no alcanza a obligar. Alentamos a todas las partes interesadas, independientemente del nivel de riesgo asociado con sus sistemas de IA, a considerar los principios y directrices establecidos en el Reglamento como un modelo a seguir.
El uso responsable de la IA, promovido por el Reglamento, también provee varios beneficios para el negocio y la innovación, como por ejemplo:
Cada vez más los inversores miran cómo las empresas gobiernan los sistemas de IA antes de tomar decisiones de inversión.
Los clientes cada vez más exigen responsabilidad a las empresas en vez de solo beneficios.
La detección temprana de riesgos del uso de la IA permite mitigar o evitar consecuencias negativas mucho más económicas, comparado con una mitigación una vez en el mercado.
Atraer talento es un reto importante para las empresas. Promover un uso responsable de la IA atrae y retiene al talento humano.
Marzo de 2024
Documento elaborado por Idoia Salazar, Richard Benjamins y Lorenzo Cotino
Comments