La Unión Europea ha marcado un hito histórico con la aprobación final de su ley de IA, una iniciativa pionera destinada a regular el desarrollo y uso de la IA dentro de sus 27 estados miembros.
Con una votación abrumadoramente favorable en el Parlamento Europeo, la ley establece un precedente global, ofreciendo un marco para que otros gobiernos aborden los desafíos regulatorios que presenta la IA.
¿De qué trata la nueva ley de IA de la UE?
La ley de inteligencia artificial de la Unión Europea representa el primer conjunto de normas exhaustivas a nivel mundial destinadas a regular el uso y desarrollo de la IA. Aprobada tras cinco años de deliberaciones, esta legislación plantea garantizar que su evolución y aplicación sean seguras, éticas y alineadas con los derechos humanos y la democracia.
Esta ley clasifica las aplicaciones de IA según su nivel de riesgo, desde bajo hasta inaceptable, estableciendo requisitos específicos para cada categoría. La mayoría de los sistemas de IA, como los filtros de spam o los sistemas de recomendación de contenido, se consideran de bajo riesgo y están sujetos a requisitos voluntarios.
Sin embargo, aquellos usos de IA que implican riesgos más significativos, especialmente en sectores críticos como la medicina y la infraestructura esencial, deben cumplir con estándares más estrictos. Estos incluyen el uso de datos de alta calidad y la provisión de información clara a los usuarios.
La ley prohíbe explícitamente ciertas aplicaciones de IA que se consideran de riesgo inaceptable debido a su potencial para violar los derechos fundamentales. Esto incluye sistemas de puntuación social, ciertos tipos de vigilancia predictiva y el reconocimiento de emociones en entornos como escuelas y lugares de trabajo.
Además, la ley aborda el desafío emergente de los modelos de IA generativa. Entre ellos, los chatbots, como Gemini o ChatGPT, que pueden producir respuestas y contenido altamente realistas.
Los desarrolladores de estos sistemas deben proporcionar resúmenes detallados de los datos utilizados para entrenar sus modelos y cumplir con la ley de derechos de autor de la UE.
También se requiere que etiqueten claramente cualquier contenido generado por IA. Por ejemplo, imágenes o audio, para indicar que ha sido manipulado artificialmente.
Excepciones para la aplicación de la ley
Aunque la ley prohíbe en principio el uso de estos sistemas en espacios públicos, se han establecido excepciones muy específicas y limitadas para casos que requieren una acción inmediata para prevenir delitos graves, incluyendo:
- Búsqueda de personas desaparecidas: Las autoridades pueden utilizar la identificación biométrica en tiempo real para localizar a personas desaparecidas, bajo condiciones estrictamente reguladas.
- Prevención de ataques terroristas: En situaciones donde exista una amenaza inminente de un ataque terrorista, se permite el empleo de tecnologías de IA para identificar y prevenir dichas amenazas.
- Investigación de delitos graves: Para delitos graves, como el secuestro o el terrorismo, se permite el uso de identificación biométrica post-evento. Siempre que exista autorización judicial previa.
Para asegurar que estas excepciones no se traduzcan en abusos o violaciones de los derechos humanos, la ley de IA establece salvaguardias estrictas. Estas incluyen la limitación del uso de la tecnología en términos de tiempo y alcance geográfico. Asimismo, la necesidad de obtener una autorización previa por parte de una entidad judicial o administrativa competente.
Además, el uso de sistemas de IA en estos contextos se considera de alto riesgo. Por lo tanto, implica una serie de obligaciones adicionales para las autoridades. Entre ellas, la transparencia, la precisión y la supervisión humana.
Implementación y cumplimiento de la ley de IA
La ley se espera que entre en vigor entre mayo y junio, tras la finalización de las formalidades finales, incluida la ratificación por parte de los países miembros de la UE. Una vez oficial, las disposiciones comenzarán a aplicarse en diferentes etapas.
Las prohibiciones a ciertos usos de IA considerados inaceptables serán efectivas seis meses después de la entrada en vigor de la ley. Las normativas específicas para sistemas generales de IA, como los chatbots, se activarán un año después.
Para mediados de 2026, se anticipa que el conjunto completo de regulaciones, incluidos los requisitos para sistemas de alto riesgo, estará plenamente operativo.
Para asegurar el cumplimiento, cada país de la UE creará su propia agencia de supervisión de IA, permitiendo a los ciudadanos presentar quejas en caso de posibles violaciones. Adicionalmente, la Comisión Europea establecerá una Oficina de IA dedicada a la aplicación y supervisión de la ley para sistemas generales de IA.
Las infracciones a esta normativa podrían resultar en multas significativas, de hasta 35 millones de euros o el 7% de la facturación global de la empresa infractora.
Se introducirán “sandbox” regulatorios y pruebas en entornos reales a nivel nacional, accesibles especialmente para PYMEs y startups. El objetivo es el de desarrollar y entrenar tecnologías de IA innovadoras antes de su lanzamiento al mercado.
La ley de IA se alinea con las sugerencias de la Conferencia sobre el Futuro de Europa. Por ende, se enfoca en incrementar la competitividad de la UE en sectores clave y promover una sociedad segura.
Asimismo, luchar contra la desinformación, asegurar la supervisión humana y el uso ético de la IA. Además, impulsar la innovación digital, establecer medidas de seguridad y transparencia, y mejorar el acceso a la información para todos, incluidas personas con discapacidad.