Los legisladores de la Unión Europea han acordado los términos de una legislación histórica para regular la inteligencia artificial, impulsando la promulgación del régimen más restrictivo del mundo sobre el desarrollo de la tecnología.
Europa alcanzó el viernes un acuerdo provisional sobre normas históricas de la Unión Europea que regulan el uso de la inteligencia artificial. Esto incluye el uso de la IA por parte de los gobiernos en la vigilancia biométrica y cómo regular sistemas de inteligencia artificial como ChatGPT.
Con el acuerdo político, la UE avanza hacia convertirse en la primera gran potencia mundial en promulgar leyes que regulan la IA. El acuerdo alcanzado el viernes entre los países de la UE y los miembros del Parlamento Europeo se produjo tras casi 15 horas de negociaciones que siguieron a un debate de casi 24 horas el día anterior.
El comisario de la UE confirmó que se había alcanzado un acuerdo.
Thierry Breton, comisario de la UE, confirmó en un post en X que se había alcanzado un acuerdo.
Lo calificó de acuerdo histórico. “La UE se convierte en el primer continente que establece normas claras para el uso de la IA”, escribió. “La AIAct es mucho más que un reglamento: es una plataforma de lanzamiento para que las empresas emergentes y los investigadores de la UE lideren la carrera mundial de la IA”.
Historic!
The EU becomes the very first continent to set clear rules for the use of AI 🇪🇺
The #AIAct is much more than a rulebook — it’s a launchpad for EU startups and researchers to lead the global AI race.
The best is yet to come! 👍 pic.twitter.com/W9rths31MU
— Thierry Breton (@ThierryBreton) December 8, 2023
Ambas partes están dispuestas a discutir los detalles en los próximos días, lo que podría cambiar la forma de la legislación final.
“Europa se ha posicionado como pionera, comprendiendo la importancia de su papel como organismo normativo mundial. Este sí es, creo, un día histórico”, declaró en rueda de prensa el Comisario Europeo Thierry Breton.
El acuerdo exige que los modelos de base, como ChatGPT y los sistemas de Inteligencia Artificial de propósito general (GPAI), cumplan unas obligaciones de transparencia antes de salir al mercado.
Éstas incluyen la elaboración de documentación técnica, el cumplimiento de la legislación de la UE sobre derechos de autor y la difusión de resúmenes detallados sobre el contenido utilizado para la formación.
Los modelos de fundación de alto impacto con riesgo sistémico tendrán que realizar evaluaciones de los modelos, evaluar y mitigar los riesgos sistémicos, realizar pruebas de adversarios, informar a la Comisión Europea sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética.
Los GPAI con riesgo sistémico podrán basarse en códigos de prácticas para cumplir la nueva normativa.
Los gobiernos sólo pueden utilizar la vigilancia biométrica en tiempo real en espacios públicos en casos de víctimas de determinados delitos, prevención de amenazas reales, presentes o previsibles, como atentados terroristas, y búsqueda de personas sospechosas de los delitos más graves.
Un duro golpe para las empresas de Inteligencia Artificial
Las empresas europeas han expresado su preocupación por que unas normas demasiado restrictivas sobre esta tecnología, que evoluciona rápidamente y ganó adeptos tras la popularización del ChatGPT de OpenAI, obstaculicen la innovación.
El pasado mes de junio, decenas de algunas de las mayores empresas europeas, como la francesa Airbus y la alemana Siemens, afirmaron que las normas parecían demasiado duras para fomentar la innovación y ayudar a las industrias locales.
El mes pasado, el Reino Unido organizó una cumbre sobre la seguridad de la IA, que dio lugar a amplios compromisos de 28 naciones para trabajar juntas a fin de abordar los riesgos existenciales derivados de la IA avanzada.
Ese acto atrajo a figuras destacadas de la tecnología, como Sam Altman, de OpenAI, que anteriormente se había mostrado crítico con los planes de la UE para regular la tecnología.
Los detalles sobre el acuerdo de la UE
El acuerdo prohíbe la manipulación cognitivo-conductual, el desguace no selectivo de imágenes faciales de Internet o de grabaciones de CCTV, la puntuación social y los sistemas de categorización biométrica para inferir creencias políticas, religiosas, filosóficas, orientación sexual y raza.
Los consumidores tendrían derecho a presentar reclamaciones y recibir explicaciones significativas, mientras que las multas por infracciones oscilarían entre 7,5 millones de euros (8,1 millones de dólares) o el 1,5% de la facturación y 35 millones de euros o el 7% de la facturación global.
Las ambiciosas normas europeas sobre IA llegan en un momento en que empresas como OpenAI, en la que Microsoft (MSFT.O) es inversor, siguen descubriendo nuevos usos para su tecnología, suscitando tanto aplausos como preocupaciones. Alphabet (GOOGL.O), propietaria de Google, lanzó el jueves un nuevo modelo de IA, Gemini, para rivalizar con OpenAI.
La ley de la UE podría convertirse en el modelo a seguir por otros gobiernos y en una alternativa al enfoque poco estricto de Estados Unidos y a las normas provisionales de China.
Artículos recientes:
- Inversores especulan con el recorte de tipos de interés en 2024 y apuestan por la renta variable.
- La empresa de minería Bitcoin Riot realiza una compra de equipo ASIC por 290 millones.
- Los beneficios de compañías aéreas alcanzaran los 25.700 millones en 2024, aunque lejos de los resultados récord pre pandemia.