¿Qué es la ley de inteligencia artificial europea?
La Ley de Inteligencia Artificial (IA) europea o también la llamada AI Act es una legislación pionera, diseñada para regular el desarrollo, despliegue y uso de la inteligencia artificial dentro de los países de la Unión Europea. Es la primera legislación de este tipo a nivel mundial y busca garantizar que los sistemas de IA comercializados y utilizados en el mercado europeo sean seguros y respeten los derechos fundamentales y los valores de la UE, incluyendo la protección de datos personales y la privacidad. Está ley se presenta en forma d Reglamento europeo de protección de datos.
¿Qué regula esta ley de inteligencia artificial?
La ley regula aspectos clave del uso de la IA, incluyendo:
Clasificación de Sistemas de IA: Introduce una clasificación basada en el nivel de riesgo, diferenciando entre sistemas de IA de riesgo limitado y sistemas de IA de alto riesgo. Los sistemas de alto riesgo requieren una evaluación más rigurosa del impacto sobre los derechos fundamentales, incluida la protección de datos.
Prohibiciones Específicas: Prohíbe ciertos usos de la IA que se consideran inaceptables debido a los riesgos que representan. Esto incluye, por ejemplo, el rastreo indiscriminado de imágenes faciales, el reconocimiento de emociones en entornos laborales y educativos, la puntuación ciudadana, y la categorización biométrica para deducir datos sensibles.
Gobernanza y Cumplimiento: Establece un marco de gobernanza que incluye la creación de organismos como la Oficina de IA, el Comité de IA, y el Foro consultivo. Estos organismos son responsables de supervisar la implementación de los modelos de IA más avanzados, contribuir a fomentar normas y prácticas de prueba, y garantizar el cumplimiento de las normas comunes en todos los Estados miembros.
Sanciones por Incumplimiento: Incluye un régimen sancionador que fija multas basadas en un porcentaje del volumen de negocio anual global de la empresa infractora o un importe predeterminado si este fuera superior. Las multas pueden ser sustanciales, llegando hasta los 35 millones de euros o el 7 % del volumen de negocio anual global por infracciones graves.
En el año 2019 el grupo de expertos de alto nivel sobre inteligencia artificial publico las “Directrices éticas para una IA” fiable con el fin de promover una inteligencia artificial fiable.
La fiabilidad de la inteligencia artificial se apoya en 3 COMPONENTES que deben satisfacerse a lo largo de todo el ciclo de vida del sistema:
1) LICITA La Inteligencia Artificial debe ser LÍCITA, es decir, cumplir todas las leyes y reglamentos aplicables;
2) ÉTICA Ha de ser ÉTICA, de modo que se garantice el respeto de los principios y valores éticos;
3) ROBUSTA Debe ser ROBUSTA, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales.
¿Cuándo será aprobada esta ley?
La entrada en vigor de la Ley de Inteligencia Artificial europea todavía está en proceso de definición. Aunque la ley ha dado pasos significativos hacia su aprobación final, todavía necesita ser formalmente aprobada por el Parlamento Europeo. Una vez aprobada, es común que este tipo de legislación tenga un período de transición antes de que se aplique completamente, permitiendo a las empresas y organismos públicos adaptarse a los nuevos requisitos. Está previsto la votación para abril del 2024.