Bruselas (EuroEFE).- Autores, artistas y otros titulares de derechos en los sectores cultural y creativo de la UE, al igual que varios eurodiputados y expertos, expresaron este viernes su preocupación por el último borrador de proyecto de Código de Buenas Prácticas sobre la Inteligencia Artificial (IA) que prepara la Comisión Europea.
«No podemos apoyarlo», dice la coalición de autores y artistas en una declaración conjunta que critica el tercer borrador del Código de Prácticas de la Ley de IA de la UE porque, aseguran, «socava los objetivos de la Ley de IA», e «ignora la intención del legislador europeo».
La coalición de autores recuerda el objetivo de la Ley de IA de «dar a los autores, artistas intérpretes o ejecutantes y otros titulares de derechos las herramientas necesarias para ejercer y hacer valer sus derechos», exigiendo a los proveedores de IA la aplicación de medidas para cumplir con la legislación europea sobre derechos de autor, además de que «proporcionen un resumen suficientemente detallado del contenido asimilado y utilizado para el entrenamiento».
Sin embargo, consideran que el último borrador representa un nuevo paso que se aleja de ese objetivo y que crea incertidumbre.
«En lugar de facilitar un marco sólido para el cumplimiento, establece un estándar tan bajo que no ofrece asistencia significativa a los autores, artistas intérpretes o ejecutantes y otros titulares de derechos para ejercer o hacer valer sus derechos», aseguran.
Today, a broad coalition of authors, performers and other rightsholders organisations active across the EU’s cultural and creative sectors, including ECSA, say #NO to the GPAI Code of Practice, as drafted by the AI Office. ➡️ t statement: bit.ly/4hS1HL0
— European Composer and Songwriter Alliance (ECSA) (@ecsa.bsky.social) 28 de marzo de 2025, 9:41
[image or embed]
Además, creen que «tampoco garantizaría que los proveedores» de IA cumplan ni con la legislación de la UE sobre derechos de autor ni con la Ley de IA.
«Hemos participado de forma constructiva en el proceso de redacción y hemos aportado comentarios sustanciales a los borradores anteriores del Código de Prácticas, destacando las graves deficiencias que afectan a todos los sectores creativos. Sin embargo, quienes lo redactaron han ignorado o desestimado en gran medida dichos comentarios», consideran.
Puesto que «no cumple el requisito de adecuación establecido», el borrador «no debería aprobarse sin mejoras sustanciales», añaden.
Entre los firmantes están la Federación Internacional de Periodistas (IFJ), Eurocinema, European Visual Artists, European Composer and Songwriter Alliance, y CEPI European Audiovisual Production.
Preocupación de eurodiputados y expertos
Mientras, los eurodiputados que redactaron la ley de inteligencia artificial de la UE y varios expertos también han mostrado su preocupación con la última versión del citado código de conducta sobre la IA.
Este domingo culmina el plazo que tienen las organizaciones de la sociedad civil para enviar sus comentarios a la Comisión Europea y muchas han denunciado que el tercer borrador del documento rebaja las exigencias para los modelos fundacionales considerados de alto riesgo por su elevada potencia de cálculo, entre los que se pueden encontrar, según los expertos, modelos como ChatGPT, de OpenAI; o Gemini, de Google.
Consideran, en definitiva, que los cambios que ha introducido la Oficina de Inteligencia Artificial de la UE son contrarios al espíritu de la ley, que entró en vigor el año pasado y que permite o prohíbe el uso de la inteligencia artificial en función del peligro que suponga para las personas.
«Nosotros, los representantes de los colegisladores de la ley de IA, nos dirigimos a usted con gran preocupación por el código de conducta, con el que la evaluación y mitigación de diversos riesgos para los derechos fundamentales y la democracia ahora es, de repente, totalmente voluntaria para los proveedores de modelos de IA generativa con riesgo sistémico», han escrito los eurodiputados en una carta dirigida a la vicepresidenta de Soberanía Digital de la Comisión, Henna Virkkunen.
La misiva, a la que tuvo EFE, la firman siete eurodiputados en activo y otros que no han seguido en esta legislatura pero que redactaron la ley, representantes del Partido Popular Europeo, de los socialdemócratas, de los liberales y los verdes.
También la firma Carme Artigas, copresidenta del Consejo Asesor de Inteligencia Artificial de Naciones Unidas y antigua secretaria de Estado de Digitalización del Gobierno español, que contribuyó a pactar la ley de IA durante la presidencia rotatoria de la UE que España celebró en el último semestre de 2023.
La reciente versión del código de conducta obliga a los modelos de IA generativa a evaluar y mitigar riesgos existenciales que puedan provocar, como la posibilidad de que los humanos pierdan el control sobre estos sistemas, o accidentes químicos, biológicos y nucleares.
Pero les da la posibilidad de elegir si evaluar o no los riesgos que puedan ocasionar a los derechos fundamentales, al replicar patrones que fomenten la discriminación, que vayan en contra de la libertad de expresión, de la privacidad o que promuevan contenidos de abuso sexual infantil.
«Si los proveedores de los modelos de IA generativa con más impacto adoptaran posturas políticas más extremas, implementaran políticas que minaran la fiabilidad de los modelos, facilitaran la interferencia extranjera o la manipulación electoral, contribuyeran a la discriminación, restringieran la libertad de información o difundieran contenido ilegal, las consecuencias podrían perturbar profundamente la economía y la democracia europeas», señala la carta.
DOT, la patronal de las grandes tecnológicas, que representa entre otros a OpenAI, Google, Meta, X o Airbnb, considera que, si bien el tercer borrador del documento «presenta algunas mejoras, ciertas disposiciones aún exceden los requisitos de la Ley de IA».
The @DOTEurope team welcomes @OpenAI as our newest member. 👏 Find the full press release here: https://t.co/qEhc9WxDof pic.twitter.com/2drKXWuBBz
— DOT Europe (@DOTEurope) March 17, 2025
«Por ejemplo, el requisito de realizar evaluaciones de riesgos obligatorias por parte de terceros antes y después del despliegue, aunque no es una obligación en la propia Ley de IA, lamentablemente sigue apareciendo en el nuevo borrador», dijo a EFE Elias Papadopoulos, director de Políticas de la organización.
Bruselas quiere terminar el código de conducta en mayo, para que entre en vigor el próximo 2 de agosto. Aunque de carácter voluntario, el documento debe ayudar a los desarrollos de modelos de IA generativa a cumplir con los requisitos de la ley.