Diari Més

Tecnología

Amnistía Internacional alerta que la IA amplifica el racismo y las desigualdades

La ONG pide prohibir sistemas de reconocimiento en lugares públicos y evitar que las multinacionales puedan auto-regularse

Dos asistentes al Congreso observan sus perfiles refectidos en una pantalla de gran formato en el Mobile World Congress.

Amnistía Internacional alerta que la IA amplifica el racismo y las desigualdadesCedida

Publicado por

Creado:

Actualizado:

Amnistía Internacional alerta que la inteligencia artificial (IA) agrava varios problemas sociales y exige en la UE la prohibición de las herramientas que utilizan esta tecnología de forma «peligrosa». «Los sistemas de IA han amplificado de forma flagrante el racismo y las desigualdades y han perpetuado la vulneración de los derechos humanos», ha apuntado este jueves la ONG en un comunicado. En un contexto en que las instituciones comunitarias están negociando la primera ley para definir los límites de la IA, la organización ha advertido de los peligros vinculados a la nueva tecnología y ha exigido medidas como el veto de sistemas de reconocimiento facial en lugarespúblicos o evitar que las grandes multinacionales ganen capacidad para «auto-regular» el sector.

Según el asesor sobre regulación de la inteligencia artificial de Amnistía Internacional, Mher Hakobyan, buena parte de los sistemas basados en nuevas tecnologías que se utilizan hoy día «no se utilizan para mejorar el bienestar de la gente, sino que se utilicen para ahorrar costes». «Cuando ya existen problemas sistémicos como el racismo y la discriminación, estas tecnologías dañan todavía más las comunidades marginadas», lamenta.

En este sentido, el experto recomienda que la UE, más que centrarse en las amenazas potenciales de la inteligencia artificial, formule leyes «que hagan frente a los problemas existentes, como que la tecnología se utilice para tomar decisiones discriminatorias que vulneren derechos humanos básicos». En relación con esta cuestión, el artículo hace mención a una herramienta utilizada por el gobierno de los Países Bajos que pretendía detectar si las solicitudes de ayudas a la infancia eran fraudulentas o no. Según Amnistía, el sistema «penalizó erróneamente miles de familias de clase baja y de origen inmigrante, hundiéndolos en la pobreza y tener que hacer frente a más deudas».

De hecho, la organización lamenta que los estados miembros recurran a tecnologías «opacas y hostiles» para «abusar de migrantes» y exige que se prohíba el sesgo «racista» de algunos sistemas de evaluación.

Veto a los sistemas de reconocimiento facial

Otra de las demandas de Amnistía Internacional es prohibir «sin excepciones» los sistemas de reconocimiento facial en espacios públicos, incluyendo zonas fronterizas en torno a centros de detención. Parala ONG, estas tecnologías se han convertido en la herramienta «por excelencia» para llevar a cabo una vigilancia que considera «excesiva» y alerta que pueden derivar en detenciones «incorrectas».

Por otra parte, la organización exige a los legisladores europeos que prohíban la exportación de productos «problemáticos» a países que vulneran de forma reiterada los derechos humanos. «Los estados tienen la obligación de asegurar que las compañías dentro de su jurisdicción no sacan rédito del abuso de los derechos humanos», señala.

Poner límites en las empresas

Finalmente, Amnistía Internacional denuncia que las grandes multinacionales del sector han ejercido varios tipos de presiones para decidir qué tecnologías son consideradas «de alto riesgo». Delante de este escenario, la entidad ve «crucial» que sea la UE la que haga esta clasificación para evitar que las empresas disfruten de la capacidad de auto-regularse.

tracking