La UE pacta la primera ley para limitar los riesgos de la inteligencia artificial

La norma permite cámaras de reconocimiento facial en espacios públicos sólo previa autorización judicial, e identifica sistemas de riesgo para las personas que solo se podrán utilizar si se demuestra que respetan los derechos fundamentales

Después de 35 horas de negociación, la Unión Europea ha logrado cerrar un acuerdo histórico para fijar las primeras reglas con las que limitar los riesgos de la inteligencia artificial (IA) que, previsiblemente podrá entrar en vigor a partir de 2026. Se basa en permitir o prohíbir su uso en función del riesgo que suponga para las personas. 

Lo tendrán que ratificar el Parlamento Europeo y el Consejo de la UE. Entre otros asuntos, la norma prohíbe las cámaras de reconocimiento facial en espacios públicos, pero los gobiernos han presionado para permitirlas en casos concretos, siempre con previa autorización judicial.

La ley de inteligencia artificial de la UE es pionera en el mundo. Un marco legal único para el desarrollo de la inteligencia artificial el que se puede confiar», dijo la presidenta de la Comisión Europea, Ursula von der Leyen, en un mensaje en la red social X (antes Twitter).

La IA generativa

El otro gran asunto que ha centrado las negociaciones es la regulación de los sistemas de inteligencia artificial generativa, en los que se basan modelos como ChatGPT, de la empresa OpenAI, o Bard, de Google.

Tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando Bruselas propuso la ley en abril de 2021, pero las instituciones comunitarias han visto la necesidad de legislarlos desde el estallido de ChatGPT el año pasado.

El reglamento no prohíbe su uso pero sí ha establecido una serie de criterios para detectar los modelos que pueden generar un alto riesgo para las personas en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.

El texto identifica sistemas de alto riesgo que solo se podrán utilizar si se demuestra que respetan los derechos fundamentales. Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia.

La presidencia española del Consejo la UE ha logrado uno de sus principales objetivos en este semestre con el pacto de esta norma pionera en el mundo.

Comparte esta noticia:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *