Noticias

Cómo la IA afecta a derechos fundamentales

Como la salud, cuando aplicaciones dan consejos erróneos

Redazione Ansa

(ANSA) - MADRID 14 JUN - La Inteligencia Artificial (IA), sobre la que el Parlamento Europeo votó hoy la primera normativa para controlar sus riesgos, "cuando, utilizada para dar consejos, se equivoca, puede afectar a derechos fundamentales como el de la salud", advierte en entrevista a ANSA el científico y experto en ética del Comité Europeo de Protección de Datos, el italiano Alessandro Mantelero.
    El creador del ChatGpt, por ejemplo, "advierte que no se le tiene que preguntar sobre salud, pero la gente lo hace" y "cuando se utiliza para pedirle consejos e información sobre una patología y la información no es correcta, eso afecta a las personas", apunta.
    También con una aplicación de ayuda psicológica que antes la hacían seres humanos y ahora la hace la IA "ha habido casos de problemas de trastornos alimenticios que en lugar de mitigarlos lo aumentaban, porque proporcionaba comentarios muy centrados sobre el consumo de calorías y los psicólogos vieron que el resultado era negativo", señala.
    Estos "impactos afectan al derecho a la salud", subraya.
    Otros derechos que pueden ser afectados, como la libertad de expresión, ocurren cuando, por ejemplo, "al controlar los contenidos de las redes sociales la IA se equivoca, lo que puede limitar la libertad de expresión".
    Mantelero, miembro del Comité de Ética de la Universidad Politécnica de Turín (Italia) y autor del libro "Beyond the data", en el que trata este tema, pone otros ejemplos de riesgos como cuando un "chatbot da información errónea sobre impuestos, o en un entorno judicial cuando se utiliza para adoptar sanciones administrativas. Equivocarse puede acarrear muchos problemas", advierte.
    "No es un discurso apocalíptico, sino que cada aplicación tiene su riesgo específico, hay que analizarlos y desarrollar la IA teniendo en cuenta esos impactos".
    En este sentido, considera "clave" en el proyecto legislativo que votó hoy el Parlamento Europeo para regular la gestión de la IA "la evaluación de riesgo, que la gente pueda conocer cuál es el nivel de riesgo de la aplicación que usa y cómo se ha afrontado".
    El proyecto europeo "incluye una valoración del impacto, pero falta la metodología, no dice cómo hacerlo y esto es un tema crucial", considera.
    En una jornada organizada en Barcelona por la Autoridad catalana de protección de datos (APDCAT) Mantelero defendió que el mercado de la inteligencia artificial solo puede crecer "si va de la mano de la garantía de la protección de los derechos humanos". (ANSA).
    Leggi l'articolo completo su ANSA.it