Por Lucía Leal
Madrid (EuroEFE).- La primera ley de inteligencia artificial del mundo ya es una realidad: con su entrada en vigor, los países de la Unión Europea (UE) empezarán en cuestión de meses a prohibir ciertos sistemas en función del riesgo que supongan para sus ciudadanos.
Te explicamos lo que significa para ti:
¿De dónde viene?
La preocupación por la rápida evolución de la inteligencia artificial (IA) llevó a la Comisión Europea a proponer la ley en abril de 2021: el impulso legislativo se nutrió de varias propuestas ciudadanas durante la Conferencia sobre el Futuro de Europa, y también de la voluntad de impulsar a la industria europea frente a China y Estados Unidos.
El proyecto no estaba pensado para sistemas generativos, pero el estallido el año pasado de programas como ChatGPT llevó a los Veintisiete a incluirlos en la legislación. Francia, Alemania e Italia se oponían a regularlas para no cortar las alas a empresas como la sa Mistral AI o la alemana Aleph Alpha, pero al final dieron su brazo a torcer.
¿En qué te afecta?
- Podrás seguir utilizando sistemas generativos tan populares como ChatGPT, de Open AI, o Gemini (antes Bard), de Google, pero éstos tendrán que respetar los derechos de autor y ser transparentes cuando generen textos o creaciones artísticas mediante inteligencia artificial.
- No deberás temer una vigilancia masiva del Gobierno ni de empresas privadas, ni tampoco sistemas distópicos de puntuación o manipulación social. Tu empresa no podrá utilizar la IA para contratarte, despedirte o evaluar tu trabajo en prácticamente ningún caso, ni tu universidad para seleccionarte, ni tu banco para analizar tu solvencia.
- Podrás presentar reclamaciones si consideras que un sistema vulnera tus derechos, y será ilegal que te engañen con un ‘deepfake’ o interactúen contigo desde un chatbot sin revelar que al otro lado no hay una persona real.
- Si has desarrollado u operas un sistema de inteligencia artificial en tu empresa o entidad, podrás comprobar en esta nueva web si estás sujeto a las obligaciones derivadas de la nueva ley.
¿En qué consiste?
♦ El texto respaldado por el Parlamento Europeo en marzo divide los riesgos derivados de la inteligencia artificial en cuatro categorías:
- «Riesgo inaceptable»: Los sistemas clasificados como tales quedan prohibidos en la UE, por violar derechos o valores fundamentales de la unión.
Ejemplos: están vetados aquellos que usen mecanismos de reconocimiento facial, de voz u otro tipo en espacios públicos en tiempo real, los empleados para otorgar una puntuación social a los ciudadanos, como los que existen en China; los que usen técnicas subliminales o manipuladoras; los que puedan perjudicar a grupos vulnerables concretos, como los discapacitados o los menores; o los sistemas de clasificación biométrica que deduzcan la raza, las tendencias políticas o la orientación sexual de una persona, así como aquellos que detecten sus emociones en el lugar de trabajo. La lista se podrá ir actualizando con el tiempo.
Excepciones: Las fuerzas del orden podrán emplear cámaras de reconocimiento facial y otros sistemas de vigilancia biométrica en tiempo real, previa autorización judicial, en los casos de amenazas terroristas inminentes, búsqueda de menores desaparecidos o secuestrados o persecución de autores de crímenes graves. La ley tampoco se aplica, en general, a aquellos sistemas con objetivos de investigación científica, de defensa o de seguridad nacional.

- «Alto riesgo» para la seguridad, salud, derechos humanos, democracia o medio ambiente: Sus responsables deberán superar una evaluación para demostrar que esos modelos se ajustan a la ley. Ejemplos:
- Sistemas empleados por las autoridades para detectar ultrafalsos o ‘deepfakes‘ (vídeos tan manipulados que parecen reales y pueden atribuir a una persona declaraciones o actos que no son suyos)
- Los que se usen en procesos de selección laborales o universitarios, así como para ascender o despedir a empleados.
- Los usados por las instituciones financieras para evaluar la solvencia y la calificación crediticia de sus clientes; los que puedan tener alguna influencia en unas elecciones o una votación.
- Aquellos utilizados para operar infraestructuras críticas.
- Los usados por las autoridades policiales, judiciales o migratorias para analizar pruebas de delitos y solicitudes de visado o asilo.
- «Riesgo de transparencia»: sus responsables deben cumplir requisitos para no engañar a los consumidores, haciéndoles creer que interactúan con personas reales o con contenidos creados por ellas.
Ejemplos: los propietarios de chatbots o creadores de ‘deepfakes’, que deberán informar a los s de que lo son (excepto cuando esos ultrafalsos se usen para prevenir delitos); o las empresas que usen sistemas de AI en el ámbito laboral, que deberán notificar de ello a sus empleados y a los sindicatos.
- «Riesgo mínimo»: los filtros para spam y otros sistemas que no presenten amenazas notables para las personas únicamente tendrán que cumplir las regulaciones corrientes de la UE, como la ley de protección de datos o la de derechos de autor.
♦ La ley establece además otras obligaciones para la IA de uso generalista: aquí es donde entran ChatGPT y otros modelos generativos en pleno auge.
Excepciones: aquellos modelos desarrollados con software de código abierto no tendrán que divulgar su documentación técnica. Los que puedan suponer un «riesgo sistémico«, por la potencia de computación que ha requerido su desarrollo, deberán notificar de ello a la UE y mitigar constantemente los posibles problemas de ciberseguridad que puedan surgir.
¿Cómo se implementará?
- La UE ya ha creado la Oficina Europea de Inteligencia Artificial, encargada de implementar la ley y compuesta, entre otros, por expertos en regulación designados por cada Estado miembro. Entre sus cometidos está el de ayudar a las empresas a ajustarse a las normas antes de que entren en vigor.
- Habrá multas para quienes no cumplan: hasta 35 millones de euros o el 7 % de la facturación mundial anual de la empresa (si es una cantidad mayor).
- Habrá una base de datos pública que identificará aquellos sistemas considerados de «alto riesgo», a no ser que estén relacionados con fuerzas de seguridad pública o migración.
- Para favorecer la innovación, todos los países deberán establecer al menos un entorno controlado de pruebas o ‘sandbox‘, que permita completar el desarrollo de los sistemas bajo una supervisión regulatoria estricta antes que entren en el mercado, sobre todo para facilitar las cosas a las pymes y las empresas emergentes.
- La población podrá presentar reclamaciones ciudadanas sobre los sistemas de IA y recibir explicaciones sobre las decisiones que afecten a sus derechos.
¿Y ahora qué?
Tras el visto bueno de los embajadores de los Veintisiete en febrero, la de la Eurocámara en marzo, la luz verde formal del Consejo y su publicación en el diario oficial de la UE en julio, el texto entró técnicamente en vigor el 1 de agosto de 2024.
Pero su implementación no será plena hasta 2026 o 2027, cuando se cumplan todos estos pasos:
– Seis meses después de la fecha técnica de entrada en vigor, los Estados deben empezar a eliminar los sistemas prohibidos.
– En seis meses más (probablemente a mediados de 2025), empezarán a aplicarse las normas para los modelos de uso generalista, como ChatGPT.
– Dos años después de la entrada en vigor (es decir, en 2026), todas las normas de la ley serán aplicables, con la excepción de las que afectan a ciertos sistemas considerados de alto riesgo, que tendrán un año más de margen (hasta 2027).