La Unión Europea dio un gran paso esta semana hacia el establecimiento de normas, las primeras del mundo, sobre cómo pueden utilizar las empresas la inteligencia artificial (IA).
Se trata de un paso audaz que Bruselas espera que allane el camino a normas globales para una tecnología que se utiliza en todo, desde chatbots como ChatGPT, de OpenAI, hasta procedimientos quirúrgicos y detección de fraudes en los bancos.
"Hoy hicimos historia", dijo a los periodistas Brando Benifei, miembro del Parlamento Europeo que trabaja en la Ley de Inteligencia Artificial de la Unión Europea.
Los legisladores acordaron una versión preliminar de la ley, que ahora se negociará con el Consejo de la Unión Europea y los Estados miembros de la UE antes de convertirse en ley.
"Mientras las grandes empresas tecnológicas hacen sonar la alarma sobre sus propias creaciones, Europa se ha adelantado y ha propuesto una respuesta concreta a los riesgos que empieza a plantear la IA", añadió Benifei.
Cientos de científicos e investigadores de primera línea especializados en IA advirtieron, el mes pasado, que la tecnología suponía un riesgo de extinción para la humanidad, y varias personalidades destacadas, entre ellas el presidente de Microsoft, Brad Smith, y el CEO de OpenAI, Sam Altman, han pedido una mayor regulación.
En la Cumbre de CEO de Yale celebrada esta semana, más del 40 % de los líderes empresariales, entre ellos el jefe de Walmart, Doug McMillion, y el CEO de Coca-Cola, James Quincy, afirmaron que la IA tenía el potencial de destruir la humanidad de aquí a cinco o diez años.
En este contexto, la Ley de Inteligencia Artificial de la Unión Europea pretende "promover la adopción de una inteligencia artificial fiable y centrada en el ser humano y garantizar un elevado nivel de protección de la salud, la seguridad, los derechos fundamentales, la democracia y el Estado de derecho, así como del medio ambiente, frente a sus efectos nocivos".
Estos son los puntos clave:
Alto riesgo, bajo riesgo, prohibido
Una vez aprobada, la ley se aplicará a cualquiera que desarrolle e implante sistemas de IA en la UE, incluidas las empresas situadas fuera del bloque.
El alcance de la regulación dependerá de los riesgos creados por una aplicación concreta, desde mínimos hasta "inaceptables".
Los sistemas que entran en esta última categoría están prohibidos totalmente. Entre ellos figuran los sistemas de reconocimiento facial en tiempo real en espacios públicos, las herramientas policiales predictivas y los sistemas de puntuación social, como los de China, que asignan a las personas una "puntuación de salud" en función de su comportamiento.
La legislación también establece restricciones estrictas a las aplicaciones de IA de "alto riesgo", que son las que amenazan con "daños significativos para la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas".
Entre ellas se incluyen los sistemas utilizados para influir en los votantes en las elecciones, así como las plataformas de redes sociales con más de 45 millones de usuarios que recomiendan contenidos a sus usuarios, una lista que incluiría a Facebook, Twitter e Instagram.
La ley también establece requisitos de transparencia para los sistemas de IA.
Por ejemplo, sistemas como ChatGPT tendrían que revelar que sus contenidos son generados por IA, distinguir las imágenes falsas de las reales y proporcionar salvaguardas contra la generación de contenidos ilegales.
También tendrían que publicarse resúmenes detallados de los datos protegidos por derechos de autor utilizados para entrenar estos sistemas de IA.
Los sistemas de IA con riesgo mínimo o nulo, como los filtros de spam, quedan en gran medida fuera de las normas.
Multas cuantiosas
Según Racheal Muldoon, abogada litigante del bufete londinense Maitland Chambers, la mayoría de los sistemas de IA entrarán probablemente en las categorías de alto riesgo o prohibidos, lo que expone a sus propietarios a multas potencialmente enormes si incumplen la normativa.
Incurrir en prácticas prohibidas de IA podría acarrear una multa de hasta 40 millones de euros (US$ 43 millones) o una cantidad equivalente a un máximo del 7 % de la facturación anual global de una empresa, lo que resulte mayor.
Esto va mucho más allá de la ley europea de protección de datos, el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés), en virtud del cual el mes pasado se impuso a Meta una multa de 1.200 millones de euros (US$ 1.300 millones). El GDPR establece multas de hasta 10 millones de euros (US$ 10,8 millones), o hasta el 2 % de la facturación global de una empresa.
Las multas en virtud de la ley de IA sirven como "grito de guerra de los legisladores para decir 'tómense esto en serio'", dijo Muldoon.
Protección de la innovación
Al mismo tiempo, las sanciones serán "proporcionales" y tendrán en cuenta la posición en el mercado de los pequeños proveedores, lo que sugiere que podría haber cierta gracia para las empresas emergentes.
La ley también obliga a los Estados de la Unión Europea a crear al menos un "arenero" o entorno aislado reglamentario para probar los sistemas de IA antes de su implantación.
"Lo que queríamos conseguir con esta propuesta es equilibrio", dijo a los periodistas el eurodiputado Dragoș Tudorache. La ley protege a los ciudadanos al tiempo que "promueve la innovación, no obstaculiza la creatividad, y el despliegue y desarrollo de la IA en Europa", añadió.
La ley otorga a los ciudadanos el derecho a presentar denuncias contra los proveedores de sistemas de IA y prevé la creación de una Oficina Europea de la IA para supervisar el cumplimiento de la legislación. También exige a los Estados miembros que designen autoridades nacionales de supervisión de la IA.
Respuesta de las empresas
Microsoft que, junto con Google, está a la vanguardia del desarrollo de la IA a nivel mundial, celebró los avances de la ley, pero dijo que esperaba "más ajustes".
"Creemos que la IA requiere protecciones legislativas, esfuerzos de alineación a nivel internacional y acciones voluntarias significativas por parte de las empresas que desarrollan y despliegan la IA", dijo un portavoz de Microsoft en un comunicado.
IBM, por su parte, pidió a los legisladores de la Unión Europea que adoptaran un "enfoque basado en el riesgo" y sugirió cuatro "mejoras clave" al proyecto de ley, incluida una mayor claridad en torno a la IA de alto riesgo "para que solo se recojan los casos de uso verdaderamente de alto riesgo".
Según Muldoon, es posible que la ley no entre en vigor hasta 2026, y señaló que es probable que se revise, dada la rapidez con que avanza la IA. La legislación ya ha pasado por varias actualizaciones desde que comenzó a redactarse, en 2021.
"La ley ampliará su alcance a medida que la tecnología se desarrolle", dijo Muldoon.