La legislación de la UE «debe permitir que los afectados por los sistemas de IA actúen»

La legislación de la UE «debe permitir que los afectados por los sistemas de IA actúen»


La organización de investigación independiente Ada Lovelace Institute ha publicado una serie de propuestas sobre cómo la Unión Europea (UE) puede modificar su próxima ley de Inteligencia Artificial (AEI) para empoderar a los afectados por la tecnología, tanto a nivel individual como colectivo.

Los cambios propuestos también apuntan a ampliar y remodelar el significado de «riesgo» dentro de la regulación, que según el Instituto se basa en un propósito «razonablemente previsible» y va más allá de su enfoque actual en los derechos y la seguridad individuales, y también los sistémicos y ecológicos. los aspectos deben incluir riesgos.

«Regular la IA es un desafío legal difícil, por lo que se debe felicitar a la UE por ser la primera en presentar un marco integral», dijo Alexandru Circiumaru, líder de políticas públicas europeas en el Instituto Ada Lovelace. «Sin embargo, las propuestas actuales pueden y deben mejorarse, y los responsables políticos de la UE tienen la oportunidad de fortalecer significativamente el alcance y la eficacia de esta legislación histórica».

En su forma actual, el AEI, publicado por la Comisión Europea (CE) el 21 de abril de 2021, adopta un enfoque basado en el riesgo y orientado al mercado para regular la tecnología y se centra en establecer reglas para el uso de «alto riesgo». y prácticas de IA “prohibidas”.

Sin embargo, las organizaciones y los expertos en derechos civiles digitales han afirmado que la regulación propuesta se apilará a favor de las organizaciones, tanto públicas como privadas, que desarrollan e implementan tecnologías de inteligencia artificial que se encargan esencialmente de marcar tareas, mientras que la gente común hace poco. forma de protección o reparación.

En última instancia, afirmaron, la propuesta hará poco para mitigar los peores abusos de la tecnología de IA y esencialmente servirá como luz verde para una variedad de casos de uso de alto riesgo debido al enfoque en los estándares técnicos y el enfoque para la reducción de riesgos de IA. .

Las enmiendas propuestas por el Instituto Ada Lovelace para abordar estos problemas, publicadas el 31 de marzo de 2022, incluyen el reconocimiento de los «sujetos de datos» como actores distintos en el texto de la AEOI, que actualmente solo incluye a los «proveedores», aquellos que llevan un sistema de IA al mercado. reconoce. y «Usuarios»: aquellos que implementan el sistema de IA.

El AEOI también debe usarse para proporcionar un marco integral para los recursos en torno a los «interesados ​​de los datos», incluido el derecho a presentar quejas para las personas, el derecho a emprender acciones colectivas y el derecho a ser informado, para complementar lo que ya está bajo las disposiciones generales. previsto en el Reglamento General de Protección de Datos (RGPD).

“Una vez aprobada, la Ley de IA de la UE será el primer marco regulatorio integral de IA del mundo. Esto lo convierte en una legislación de importancia mundial con un impacto histórico que va mucho más allá de su jurisdicción legal”, dijo Imogen Parker, directora asociada del Instituto.

“Hay mucho en juego para todos con IA, por eso es tan importante que la UE lo haga bien y se asegure de que la ley realmente funcione para las personas y la sociedad”.

El Instituto Ada Lovelace también recomienda cambiar el nombre de «usuario» a «operador» para enfatizar aún más la distinción entre aquellos que usan la tecnología y aquellos para quienes se usa y para evaluar el riesgo en función del «propósito razonablemente previsible» del sistema, en lugar de el «propósito de uso» tal como lo define el propio proveedor.

«El enfoque actual puede no proporcionar suficiente claridad sobre cuándo un usuario ha excedido su propósito previsto», dijo el instituto. “Cambiar la redacción a ‘propósito razonablemente previsible’ requeriría que los proveedores consideren más a fondo la gama de usos potenciales de su tecnología. También daría lugar a una mayor claridad en la definición de los límites de los sistemas lanzados al mercado por los proveedores, hasta qué punto los operadores pueden experimentar con un sistema de IA sin incurrir en obligaciones adicionales”.

Según las propuestas actuales, los sistemas de alto riesgo solo están sujetos a requisitos ex ante, lo que significa que se aplican a los sistemas de IA antes del despliegue, lo que, según el instituto, refleja un enfoque de «seguridad del producto» para la IA que «no captura» tal como son. utilizado en el mundo real.

Para contrarrestar esto, recomienda someter los sistemas de alto riesgo a una evaluación ex-post y establecer un proceso para agregar nuevos tipos de IA a la lista de alto riesgo.

En cuanto a la categorización biométrica y el reconocimiento de emociones, el Instituto recomienda incluir ambos en la lista de “riesgos inaceptables” del artículo 5 de la AEOI: “Su uso podría dar lugar a discriminación basada en características protegidas por la normativa comunitaria”.

Otros grupos de la sociedad civil también han pedido en repetidas ocasiones cambios importantes en la AEOI desde su publicación.

En septiembre de 2021, por ejemplo, European Digital Rights (EDRi) criticó el enfoque «tecnocrático» de la UE para la regulación de la IA, que, según dijo, se centraba demasiado en la implementación de medidas para mitigar el sesgo técnico, también conocido como «debiasing». espectro completo de daños relacionados con la IA.

Agregó que al adoptar un enfoque tecnocéntrico de «eliminación de sesgos», los formuladores de políticas están reduciendo problemas sociales, políticos y económicos complejos a cuestiones puramente técnicas de calidad de datos, al tiempo que ceden un poder y control significativos sobre una variedad de problemas a las empresas de tecnología.

En el mismo mes, la ONG Fair Trials pidió a la UE que prohibiera el uso de la IA para «predecir» el comportamiento delictivo, ya que su uso en última instancia aumentaría la discriminación y socavaría los derechos humanos fundamentales, incluido el derecho a un juicio justo de la IA y la presunción de inocencia

El llamado a prohibir los sistemas policiales predictivos fue repetido en marzo de 2022 por una coalición de 38 organizaciones de la sociedad civil, incluidas Fair Trials y EDRi.

Dijeron que dado que los datos subyacentes utilizados para crear, entrenar y operar dichos sistemas a menudo reflejan sesgos estructurales históricos y desigualdades en la sociedad, su uso «daría como resultado que las personas, comunidades y áreas geográficas racializadas sean monitoreadas de manera excesiva y desproporcionada». interrogados, detenidos y encarcelados en toda Europa”.

Y en noviembre de 2021, 114 organizaciones firmaron una carta abierta pidiendo a las instituciones europeas que garanticen que la AEOI «aborda las implicaciones estructurales, sociales, políticas y económicas del uso de la IA, está preparada para el futuro y respeta los valores democráticos y… la protección de los derechos fundamentales”.

Más específicamente, las organizaciones, incluidas Access Now, Fair Trials, Algorithm Watch, Homo Digitalis y Privacy International, recomendaron: Imponer más obligaciones a los usuarios de sistemas de IA de alto riesgo para permitir una mayor responsabilidad; Creación de requisitos de accesibilidad obligatorios para que las personas con discapacidad puedan obtener fácilmente información sobre los sistemas de IA; y prohibir el uso de sistemas que supongan un riesgo inaceptable para los derechos fundamentales.

Las organizaciones agregaron que la AEOI actualmente no contiene disposiciones ni mecanismos para la reparación individual o colectiva y, como tal, «no aborda completamente la miríada de daños que resultan de la opacidad, complejidad, escala y desequilibrio de poder de los sistemas de IA desplegados».

Michelle Bachelet, la Alta Comisionada de las Naciones Unidas para los Derechos Humanos, aunque no se dirigió directamente a la AIA, también pidió una moratoria sobre la venta y el uso de sistemas de IA que representen un riesgo grave para los derechos humanos, al menos hasta que se implementen salvaguardias razonables y para una prohibición total de las aplicaciones de IA que no se pueden utilizar de acuerdo con el derecho internacional de los derechos humanos.

“La inteligencia artificial ahora está llegando a casi todos los rincones de nuestra vida física y mental e incluso a nuestros estados emocionales”, dijo Bachelet. “Los sistemas de inteligencia artificial se utilizan para determinar quién recibe servicios públicos, para decidir quién tiene la posibilidad de ser contratado para un trabajo y, por supuesto, afectan la información que las personas pueden ver y compartir en línea.

«Con el rápido y continuo crecimiento de la IA, cerrar la inmensa brecha de responsabilidad en la recopilación, el almacenamiento, el intercambio y el uso de datos es uno de los problemas de derechos humanos más apremiantes que enfrentamos».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta wen utiliza cookies, puedes ver la política de cookies aquí.    Configurar y más información
Privacidad