La Unión Europea regula la Inteligencia Artificial

El riesgo más evidente, y que ya estamos viviendo casos en Argentina, es proteger la vida privada y la confidencialidad de las comunicaciones, y la preocupación respecto a las condiciones para el almacenamiento de datos personales

Matías Nahon*

La Inteligencia Artificial (IA) llegó para cambiar el mundo y aún no sabemos exactamente qué consecuencias tendrá sobre el futuro de nuestras vidas. Algunas aplicaciones de la IA empiezan a desplazar puestos de trabajos, más que nada en sectores creativos que hasta ahora eran lugares de difícil reemplazo de la capacidad humana de trabajo. Fotografía, respuestas automáticas de servicios, educación, identificación biométrica, programación, y potencialmente transporte público son las que están más en evidencia. La reproducción de imágenes y voz que hacen muy difícil identificar su falsedad encierra potencialmente muchos riesgos y es lo que la Unión Europea (UE) se ha adelantado una vez más en regular. El objetivo explícito en la normativa 1689 del 23 de junio de 2024 es lograr una IA fiable y segura; y esta normativa es un avance en ese sentido.

El reglamento destaca la protección de las personas en relación con el tratamiento de datos personales que restringen el uso de sistemas de IA como en el caso de la identificación biométrica. Su preocupación se focaliza en la aplicación de manera remota, aunque sea aplicado dentro de la jurisdicción de la UE. Especial énfasis pone la reglamentación en que se ajuste el Derecho ya constituido y que armonice especialmente con los derechos tendientes a la protección de datos, protección de los consumidores, derechos fundamentales, empleo, protección de los trabajadores y seguridad de los productos.

¿Cuál es el impacto que va a generar la inteligencia artificial en el mundo del trabajo?

El riesgo más evidente, y que ya estamos viviendo casos en Argentina, es proteger la vida privada y la confidencialidad de las comunicaciones, y la preocupación respecto a las condiciones para el almacenamiento de datos personales.

Una característica principal que define la reglamentación de la IA es su capacidad de inferencia en la obtención de resultados de salida (estrategias de aprendizaje automático) incluyendo predicciones, contenidos, recomendaciones o decisiones, que puede influir en entornos físicos y virtuales. Y la preocupación principal está centrada en que el objetivo de la IA puede ser diferente de la finalidad prevista infringiendo derechos.

En este sentido la reglamentación también es consciente de que no quiere contraponerse a cualquier innovación que represente la IA, aunque limita sus potenciales riesgos. Por eso la base de la normativa se apoya sobre siete principios: acción y supervisión humanas; solidez técnica y seguridad; gestión de la privacidad y de los datos; transparencia; diversidad, no discriminación y equidad; bienestar social y ambiental, y rendición de cuentas.

Inteligencia artificial y cambio constante: ¿cómo preparar a los CEOs?

Ya sabemos que las IA potencialmente podrían ser usadas para intentar manipular y ejercer algún tipo de control social que esta reglamentación intenta prevenir. Por eso el temor a que la identificación biométrica produzca determinadas acciones con la IA tendiente al control, manipulación o discriminación avasallando derechos ya consolidados en la Unión Europea. En este sentido se remarca permanentemente la preocupación por detección por parte de las IA de las emociones en base a gestos o actitudes corporales de las personas que puedan ser utilizadas para inducir a las personas físicas coartadas de la posibilidad de elegir por su libre arbitrio.

La normativa establece una larga especificación para la clasificación de acuerdo a esos derechos a ser protegidos de la IA que potencialmente sean de riesgo y que merecen una atención más detenida de las autoridades para su aplicación. Las IA vinculadas al empleo y la educación merecen una atención especial. Así como también los servicios crediticios que profundicen sesgos discriminatorios. El caso extremo está ejemplificado, como la película Minority Report, donde personas físicas puedan ser juzgadas a partir de comportamientos predichos por una IA basados únicamente en la elaboración de sus perfiles, en los rasgos o características de su personalidad.

Falta ver cómo esta nueva normativa se aplica de manera concreta, pero desde ya es un avance en la identificación de potenciales riesgos y el establecimiento de límites que resguarden los derechos de las personas. Un análisis en detalle de este reglamento que pueda ser replicado en Argentina merecería un tratamiento de carácter de urgencia. Esperemos que se logre.

 

*Director general de Analitix