La Gobernanza Global de IA y el Enfoque Regulatorio de la EU

La Unión Europea (UE) ha destacado en el liderazgo del desarrollo de un marco de gobernanza para la inteligencia artificial (IA), que comenzó alrededor de los años 2000 con la regulación del espacio digital que abarca derechos fundamentales, protección de datos, propiedad intelectual e infraestructura tecnológica.

La Unión Europea (UE) ha destacado en el liderazgo del desarrollo de un marco de gobernanza para la inteligencia artificial (IA), que comenzó alrededor de los años 2000 con la regulación del espacio digital que abarca derechos fundamentales, protección de datos, propiedad intelectual e infraestructura tecnológica. En 2018, la Comisión Europea presentó una perspectiva para la IA basada en tres puntos principales: inversión, cambios socioeconómicos y un marco legal adecuado.

La estrategia de la Comisión Europea para la IA se centró en fomentar las inversiones, abordar los cambios socioeconómicos derivados de la tecnología y establecer un marco ético y legal robusto. Se creó un grupo de expertos para proporcionar orientación y, en 2019, publicó directrices éticas para una IA confiable, identificando siete requisitos esenciales para que los sistemas de IA sean seguros y fiables.

En 2020, la presidenta de la Comisión Europea, Ursula von der Leyen, se comprometió a proponer una legislación coordinada sobre las implicaciones éticas y humanas de la IA, lo que resultó en la publicación de un texto que detalla las opciones políticas para promover la adopción de la IA y abordar los riesgos asociados.

En abril de 2021, se propuso el AI Act, un hito regulatorio con un enfoque centrado en el ser humano y enfocado en la seguridad de los productos. Clasifica los sistemas de IA en cuatro categorías de riesgo, cada una con medidas específicas para gestionarlos y mitigarlos.

Los sistemas de IA prohibidos incluyen:

– Identificación biométrica remota en tiempo real en espacios públicos por autoridades policiales, excepto bajo circunstancias específicas.

– Sistemas de reconocimiento emocional en escuelas y lugares de trabajo.

– Sistemas de IA que utilizan técnicas manipulativas o explotan vulnerabilidades humanas.

Los casos de alto riesgo implican:

– Identificación biométrica remota, pero no en tiempo real.

– Reconocimiento emocional.

– Categorización biométrica basada en atributos sensibles.

– Uso de IA en infraestructuras críticas.

– Selección y evaluación de trabajadores.

– Evaluación de crédito.

– Aplicación de la ley.

– Control de migración por autoridades judiciales.

Los sistemas de riesgo limitado requieren transparencia por parte de los proveedores, como la indicación de que se está utilizando IA, especialmente en chatbots y deepfakes. Para los casos de riesgo mínimo, no se necesitan medidas adicionales, aplicándose a escenarios como filtros de spam.

El AI Act impone varias obligaciones a los proveedores de IA, especialmente para sistemas de alto riesgo. Deben implementar un sistema de gestión de riesgos a lo largo del ciclo de vida de la IA, identificar y mitigar riesgos para la salud, la seguridad y los derechos fundamentales, y garantizar la representatividad de los datos de entrenamiento para evitar sesgos.

La regulación de IA en la UE está interconectada con otras leyes, como el Reglamento General de Protección de Datos (GDPR) y la Directiva de ePrivacy, que garantizan que el uso de datos personales por sistemas de IA cumpla con principios de minimización de datos y privacidad desde el diseño. La implementación del AI Act será un proceso complejo, que requerirá coordinación entre las autoridades nacionales y la creación de nuevos organismos, como la Oficina de IA de la UE. Este organismo supervisará sistemas basados en modelos de IA de propósito general y actuará como una autoridad de vigilancia del mercado. La Directiva de Responsabilidad de Productos se ha actualizado para incluir daños psicológicos y corrupción irreversible de datos, mientras que la nueva Directiva de Trabajadores de Plataforma protege a los trabajadores de decisiones basadas exclusivamente en algoritmos.

La regulación de IA en la UE representa un esfuerzo integral para garantizar que la tecnología se desarrolle e implemente de manera segura, ética y respetando los derechos fundamentales, reflejando la ambición de Europa de liderar en la gobernanza digital global. Este esfuerzo pretende asegurar la protección de los derechos de los ciudadanos y promover la innovación responsable y sostenible, consolidando la posición de Europa como líder en la regulación de tecnologías emergentes. Además, la UE está invirtiendo fuertemente en investigación y desarrollo de IA, con el objetivo de atraer más de 20 mil millones de euros por año en la próxima década. Esta inversión busca fortalecer la posición de Europa en el campo de la IA y garantizar que la tecnología se desarrolle conforme a los valores europeos de derechos humanos, democracia y estado de derecho.

Sin embargo, persisten desafíos importantes, como el de regular la IA con la debida precisión, ya que algunos expertos critican las formas en que la regulación ha abordado definiciones y conceptos técnicos.

En conclusión, el enfoque de la UE para la gobernanza de IA pretende ser un parámetro para otras regiones, destacando la importancia de una regulación equilibrada que promueva la innovación y proteja los derechos fundamentales, garantizando la seguridad y la confiabilidad de los sistemas de IA. La continua evolución de esta regulación y su implementación práctica serán fundamentales para definir el futuro de la IA en Europa y más allá. ¿Permitirán las definiciones técnicas y las demás leyes, como las de protección de datos, que esto continúe? El futuro lo dirá.

 

×