UE regulación aplicaciones IA

La UE pone en marcha la nueva Ley de regulación para aplicaciones IA

Hoy, 1 de agosto de 2024, comienza la regulación de la Unión Europea (UE) sobre aplicaciones de inteligencia artificial (IA) basada en el riesgo. Esta nueva ley tiene un calendario de cumplimiento escalonado para desarrolladores y aplicaciones de IA, con la mayoría de las disposiciones en vigor a mediados de 2026. No obstante, algunas restricciones comenzarán a aplicarse en seis meses.

Regulaciones de la IA en UE

Desde su fase inicial, la regulación prohíbe ciertos usos concretos de la IA, como el uso de tecnologías de biometría remota por las fuerzas del orden en espacios públicos.

Aunque la mayoría de las aplicaciones de IA son consideradas de bajo o nulo riesgo y no están sujetas a la regulación, sí existe un pequeño grupo de aplicaciones, como la biometría y el reconocimiento facial, así como las aplicaciones en educación y empleo, que sí se clasifican como de alto riesgo. Los desarrolladores de estos sistemas deben registrarlos en una base de datos de la UE y cumplir con estrictas obligaciones de gestión de riesgos y calidad. Un claro ejemplo sería Worldcoin, el cual ya fue restringido en España y otros países en la utilización de sus Orbes biométricos.

Las tecnologías de IA consideradas de “riesgo limitado”, como los chatbots y las herramientas para crear deepfakes, deben cumplir con ciertos requisitos de transparencia. Esto es para asegurar que los usuarios sepan que están interactuando con una IA y no sean engañados.

Además, la ley cuenta con regulaciones para los desarrolladores de IA de propósito general (GPAI, por sus siglas en inglés). Aunque la mayoría de estos desarrolladores sólo tendrán que cumplir con básicos requisitos de transparencia, los modelos más avanzados deberán realizar evaluaciones de riesgos y tomar medidas para mitigarlos. La UE todavía está elaborando Códigos de Práctica para detallar las acciones que deben tomar estos desarrolladores para cumplir con la ley.

Códigos de Práctica

La Oficina de IA, un organismo encargado de supervisar y fomentar el ecosistema de IA en la UE, ha iniciado una consulta pública para desarrollar estos Códigos de Práctica, con la esperanza de completarlos en abril de 2025.

OpenAI, conocida por su modelo de lenguaje GPT, ha expresado su intención de colaborar con la Oficina de IA y otras autoridades durante la implementación de la nueva ley. Esto incluye la creación de documentación técnica y guías para los proveedores y usuarios de sus modelos GPAI.

La empresa también ofreció recomendaciones a las organizaciones que buscan cumplir con la Ley de IA, sugiriendo que primero identifiquen y clasifiquen los sistemas de IA que utilizan, y determinen las obligaciones basadas en sus casos de uso. Además, es preciso determinar si la organización actúa como proveedor o implementador de estos sistemas de IA, y buscar asesoramiento legal si es necesario para navegar por estas complejidades.


Deja un comentario