Unión Europea aprueba la primera ley del mundo que regula la inteligencia artificial

La ley establece una serie de obligaciones para proveedores y desarrolladores de sistemas de IA en función de los diferentes niveles de riesgo identificados

El Consejo Europeo aprobó definitivamente la ley que había votado la Eurocámara.

El Consejo de la Unión Europea (UE) dio luz verde definitiva por unanimidad a la AI Act, la ley europea sobre inteligencia artificial (IA) que regula el desarrollo, la comercialización y el uso de sistemas de IA en la UE, primera de su tipo en el mundo.
   
La ley establece una serie de obligaciones para proveedores y desarrolladores de sistemas de IA en función de los diferentes niveles de riesgo identificados.
   
Las nuevas normas serán aplicables dos años después de su entrada en vigor, con excepción de las prohibiciones, que entrarán en vigor a los seis meses, de controles sobre los sistemas de IA con fines generales, incluida la gobernanza (12 meses) y las obligaciones para los sistemas de alto riesgo.

 La nueva ley clasifica diferentes tipos de IA en función del riesgo.

Los sistemas de inteligencia artificial que presenten solo un riesgo limitado tendrán exigencias de transparencia muy leves, pero aquellos con alto riesgo deberán someterse a una serie de requisitos y obligaciones para acceder al mercado de la UE.
   
Cuando el riesgo sea inaceptable, se activarán prohibiciones: es el caso, por ejemplo, de las técnicas de manipulación, las prácticas policiales predictivas y el reconocimiento de emociones prohibidos en el lugar de trabajo y en las escuelas.
   
Este es también el caso del reconocimiento facial, cuyo uso solo está permitido por las autoridades y sujeto a condiciones estrictas.
   
Otra novedad es el capítulo dedicado a la IA generativa, insertado durante los debates con el objetivo de dar una primera respuesta a la difusión de sistemas como ChatGPT.
   
Los modelos de IA de propósito general (GPAI) que no presentan riesgos sistémicos estarán sujetos a algunos requisitos limitados, por ejemplo en materia de transparencia, pero aquellos con riesgos sistémicos tendrán que cumplir con reglas más estrictas, incluida la evaluación del modelo, la evaluación y la mitigación de riesgos sistémicos y protección de ciberseguridad.
   
La ley promueve entornos de pruebas regulatorios y pruebas en el mundo real, establecidos por las autoridades nacionales, para desarrollar y entrenar IA innovadora antes de comercializarla.
   
Dependiendo de la infracción y del tamaño de la empresa, se impondrán multas que pueden oscilar desde un mínimo de 7,5 millones de euros o el 1,5% de la facturación hasta 35 millones de euros o el 7% de la facturación global.
   
La Ley de IA se aplica únicamente a áreas comprendidas en la legislación de la UE y prevé exenciones, por ejemplo, para sistemas utilizados exclusivamente con fines militares y de defensa y para investigación.

Cubasí

Texto de Cubasí

Escambray se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, o atenten contra la dignidad de una persona o grupo social, así como los que no guarden relación con el tema en cuestión.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *