El rápido avance de la IA en los últimos tiempos ha suscitado en la sociedad un amplio debate sobre los peligros que puede traer un uso ilimitado de la misma, y la necesidad de una regulación de esta.
Esto ha provocado que los legisladores de todo el mundo hayan empezado a evaluar la necesidad de establecer marcos legales para su desarrollo y uso.
Lo anterior ha llevado a la UE a aprobar la primera normativa sobre Inteligencia artificial del mundo, la Ley de Inteligencia Artificial (AIA, por Artificial Intelligence Act), que entró en vigor en la Unión Europea el pasado miércoles 13 de marzo de 2024.
Su ámbito de aplicación se extiende a: proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, independientemente de su origen; y a usuarios de los mismos, considerando usuarios a quienes explotan esos sistemas, y no a los afectados.
Su objetivo es proteger los derechos fundamentales de los ciudadanos, así como otros valores como la democracia, el Estado de derecho y la sostenibilidad medioambiental frente al crecimiento acelerado y carente de regulación que la IA ha experimentado en los últimos tiempos, y que ha llegado a causar alarma social por los peligros que un crecimiento así podía llegar a suponer.
Así, la ley de inteligencia artificial establece diferentes niveles de riesgo con distintas medidas de control para cada nivel.
- Se habla de un riesgo inaceptable cuando se trata de sistemas que constituyen amenazas para las personas.
Estos sistemas quedan prohibidos por el reglamento. Dicho sistema incluyen la manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos, los sistemas de identificación biométrica en tiempo real y a distancia como los sistemas de reconocimiento facial o de identificación de sentimientos, quedando como única excepción el uso del reconocimiento facial que pudieran realizar las Fuerzas y Cuerpos de Seguridad con posterioridad a la comisión de un delito.
- En segundo lugar, están los sistemas de alto riesgo que son aquellos que afecten negativamente a la seguridad y a los derechos fundamentales.
Dentro de los sistemas de alto riesgo existen dos categorías:
a) los sistemas que se utilizan en productos sujetos a la legislación de la unión europea sobre seguridad de productos.
b) los sistemas de inteligencia artificial pertenecientes a 8 ámbitos específicos que deberán registrarse en una base de datos de la Unión Europea y que incluyen la identificación biométrica y categorización de personas físicas la gestión explotación de infraestructuras críticas la educación y formación profesional y de empleo y gestión del acceso y disfrute de servicios privados esenciales la aplicación de la ley de la gestión de inmigración asilo y control de fronteras y resistencia en la interpretación jurídica y aplicación de la ley todos estos sistemas de inteligencia artificial de alto riesgo serán evaluados antes de comercializarse y a lo largo de su ciclo de vida.
- Por otro lado, la inteligencia artificial generativa como chat GPT no se considera un riesgo pero se la obliga a cumplir requisitos y transparencia y con la legislación de la Unión Europea en materia de derechos de autor.
En esta línea, se obligará a revelar que el contenido ha sido generado por inteligencia artificial; a diseñar un modelo para evitar que genere contenidos ilegales y a publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.
En suma, el reglamento sobre inteligencia artificial de la UE supone una regulación pionera a nivel mundial a la hora de establecer unos límites a la inteligencia artificial, si bien se necesitará la colaboración de todos los agentes sociales para que la norma resulte efectiva y llegue a proteger efectivamente a los ciudadanos y no quede como un simple brindis al sol.