Saltar al contenido principal
Revista Digital

Sesgo racial y vigilancia masiva: la otra cara del reconocimiento facial

Revista Digital
Revista Digital © France 24

Años atrás un par de experimentos demostraron que el reconocimiento facial no funciona de manera precisa en pieles oscuras. En medio de las masivas y nuevas protestas contra el racismo y la brutalidad policial, tres grandes tecnológicas estadounidenses decidieron dejar de lado esta herramienta.

Anuncios

IBM, Amazon y Microsoft se plantan. Las tres grandes tecnológicas estadounidenses anunciaron su oposición al uso de sus sistemas de reconocimiento facial luego de las masivas protestas que se han tomado al mundo en rechazo a la brutalidad policial, especialmente contra las personas negras.

Su decisión se dio casi de manera simultánea argumentando su oposición a los métodos de vigilancia masiva, sesgos raciales y violaciones de los derechos humanos. Mientas que IBM anunció que se retira de este negocio, Amazon dijo que durante un año implementará una moratoria para que la policía no haga uso de su sistema. Por su parte Microsoft dejó claro que tampoco venderá su tecnología a las autoridades "hasta que haya una ley nacional sólida basada en los derechos humanos".

¿Por qué el reconocimiento facial genera tanta preocupación?

Organizaciones defensoras de derechos humanos creen que la falta de precisión este tipo de herramientas puedan llevar a que se produzcan arrestos injustos.

En 2018 La Unión Estadounidense por las libertades Civiles (ACLU, por sus siglas en inglés), realizó un experimento con el sistema de reconocimiento facial de Amazon: Rekognition. Lo utilizaron para comparar la fotografía de todos los integrantes del Congreso con una variedad de fotos de fichas policiales, y encontraron que el software confundió a 28 legisladores con personas que habían sido arrestadas, pero además, el 40% de ellos eran afroamericanos o pertenecían a minorías étnicas

Ese mismo año otro estudio del Instituto de Tecnología de Massachusetts demostró que las aplicaciones de reconocimiento facial de Microsoft, IBM y la compañía china Face ++ podían identificar correctamente el género de hombres blancos en fotografías, pero no funcionaba de manera precisa en mujeres afro a las que confundía con hombres. Pronto incluyeron en su análisis al sistema de Amazon, y se demostró que este tenía el mismo problema que sus competidores. Amazon dijo que sus herramientas son precisas pero que han sido usadas de manera inapropiada por los investigadores.

Con Reuters

 

Boletín de noticiasSuscríbase para recibir los boletines de France 24

Página no encontrada

El contenido que solicitó no existe o ya no está disponible.