ONU pide moratoria de sistemas de inteligencia artificial que amenazan derechos humanos - Radio America VE
planeta tierra girando circulo logo radio america ve

Volumen:

100

Últimas noticias

miércoles, 15 de septiembre de 2021

ONU pide moratoria de sistemas de inteligencia artificial que amenazan derechos humanos

 La ONU pidió este miércoles imponer una moratoria a la venta y el uso de algunos sistemas de inteligencia artificial (IA), como el reconocimiento facial, hasta que se activen garantías para proteger los derechos humanos.

 «La inteligencia artificial puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos», declaró la alta comisionada de la ONU para los Derechos Humanos, Michelle Bachelet, en un comunicado.

Desde la ONU, Bachelet llamó a evaluar los riesgos que presentan para la vida privada o la libertad de expresión los diferentes sistemas que se apoyan en la inteligencia artificial.

«Dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo«, pidió entretanto.

Los sistemas de IA se usan para decidir quién recibe servicios públicos y quién tiene oportunidad de obtener un empleo. Por supuesto, afectan a la información que la gente ve y que puede compartir en Internet, señaló la alta comisionada.

Este informe, solicitado por el Consejo de Derechos Humanos, la instancia más alta de la ONU en esa área, analizó las formas en las que esas tecnologías se aplican sin que se haya evaluado de manera correcta su funcionamiento o impacto.

La inteligencia artificial hizo que muchas personas hayan sido injustamente tratadas, ya sea porque se les niega prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque fueron arrestadas como consecuencia de errores en los sistemas de reconocimiento facial, dice el comunicado.

«El riesgo de discriminación inherente a las decisiones basadas en la IA, decisiones capaces de cambiar, definir o perjudicar a las personas es muy real», añadió Bachelet.

El informe describe detalladamente cómo los sistemas de IA se basan en grandes bases de datos con información personal compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos.

No hay comentarios:

Publicar un comentario

Pages