El r谩pido avance de la IA en los 煤ltimos tiempos ha suscitado en la sociedad un amplio debate sobre los peligros que puede traer un uso ilimitado de la misma, y la necesidad de una regulaci贸n de esta.

Esto ha provocado que los legisladores de todo el mundo hayan empezado a evaluar la necesidad de establecer marcos legales para su desarrollo y uso.

Lo anterior ha llevado a la UE a aprobar la primera normativa sobre Inteligencia artificial del mundo, la Ley de Inteligencia Artificial (AIA, por Artificial Intelligence Act), que entr贸 en vigor en la Uni贸n Europea el pasado mi茅rcoles 13 de marzo de 2024.

Su 谩mbito de aplicaci贸n se extiende a: proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, independientemente de su origen; y a usuarios de los mismos, considerando usuarios a quienes explotan esos sistemas, y no a los afectados.

Su objetivo es proteger los derechos fundamentales de los ciudadanos, as铆 como otros valores como la democracia, el Estado de derecho y la sostenibilidad medioambiental 聽frente al crecimiento acelerado y carente de regulaci贸n que la IA ha experimentado en los 煤ltimos tiempos, y que ha llegado a causar alarma social por los peligros que un crecimiento as铆 pod铆a llegar a suponer.

As铆, la ley de inteligencia artificial establece diferentes niveles de riesgo con distintas medidas de control para cada nivel.

  • Se habla de un riesgo inaceptable cuando se trata de sistemas que constituyen amenazas para las personas.

Estos sistemas quedan prohibidos por el reglamento. Dicho sistema incluyen la manipulaci贸n cognitiva del comportamiento de personas o grupos vulnerables espec铆ficos, los sistemas de identificaci贸n biom茅trica en tiempo real y a distancia como los sistemas de reconocimiento facial o de identificaci贸n de sentimientos, quedando como 煤nica excepci贸n el uso del reconocimiento facial que pudieran realizar las Fuerzas y Cuerpos de Seguridad con posterioridad聽 a la comisi贸n de un delito.

  • En segundo lugar, est谩n los sistemas de alto riesgo que son aquellos que afecten negativamente a la seguridad y a los derechos fundamentales.

Dentro de los sistemas de alto riesgo existen dos categor铆as:

a) los sistemas que se utilizan en productos sujetos a la legislaci贸n de la uni贸n europea sobre seguridad de productos.

b) los sistemas de inteligencia artificial pertenecientes a 8 谩mbitos espec铆ficos que deber谩n registrarse en una base de datos de la Uni贸n Europea y que incluyen la identificaci贸n biom茅trica y categorizaci贸n de personas f铆sicas la gesti贸n explotaci贸n de infraestructuras cr铆ticas la educaci贸n y formaci贸n profesional y de empleo y gesti贸n del acceso y disfrute de servicios privados esenciales la aplicaci贸n de la ley de la gesti贸n de inmigraci贸n asilo y control de fronteras y resistencia en la interpretaci贸n jur铆dica y aplicaci贸n de la ley todos estos sistemas de inteligencia artificial de alto riesgo ser谩n evaluados antes de comercializarse y a lo largo de su ciclo de vida.

  • Por otro lado, la inteligencia artificial generativa como chat GPT no se considera un riesgo pero se la obliga a cumplir requisitos y transparencia y con la legislaci贸n de la Uni贸n Europea en materia de derechos de autor.

En esta l铆nea, se obligar谩 a revelar que el contenido ha sido generado por inteligencia artificial; a dise帽ar un modelo para evitar que genere contenidos ilegales y a publicar res煤menes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

En suma, el reglamento sobre inteligencia artificial de la UE supone una regulaci贸n pionera a nivel mundial a la hora de establecer unos l铆mites a la inteligencia artificial, si bien se necesitar谩 la colaboraci贸n de todos los agentes sociales para que la norma resulte efectiva y llegue a proteger efectivamente a los ciudadanos y no quede como un simple brindis al sol.