Revisión de sesgo codificado: un relato revelador de los peligros de la IA

[ad_1]

rap content__strap«>Las computadoras reconocen menos a las mujeres y las personas de color que los hombres blancos. Documental Sesgo codificado muestra que los problemas no terminan ahí


La tecnologia


12 de agosto de 2020

Por Vijaysree Venkatraman

Imagen predeterminada del nuevo científico

La IA de reconocimiento facial solo podía 'ver' a Joy Buolamwini cuando usaba una máscara blanca

7th Empire Media

Sesgo codificado

Shalini Kantayya

Proyecciones del actual festival de cine

Publicidad

DURANTE SU primer semestre como estudiante de posgrado en MIT Media Lab, Joy Buolamwini encontró un problema particular. El software comercial de reconocimiento facial, que detectaba muy bien a los compañeros de clase de piel clara, no podía "ver" su rostro. Hasta que se puso una máscara de plástico blanco con frustración.

Coded Bias es un documental oportuno y estimulante del director Shalini Kantayya. Sigue el viaje de Buolamwini para descubrir prejuicios raciales y de género en el software de reconocimiento facial y otros sistemas de inteligencia artificial. Esta tecnología se utiliza cada vez más para tomar decisiones importantes, pero muchos algoritmos son una caja negra.

"Espero que esto sea una especie de verdad inquietante de la justicia algorítmica, una película que explique la ciencia y la ética en torno a un asunto de importancia crítica para el mundo". futuro de la humanidad ", dijo Kantayya Científico nuevo.

El documental, que se estrenó en el Festival de Cine de Sundance a principios de este año, ve a un grupo de científicos, académicos y escritores articulados que son los que más hablan. Este elenco está compuesto principalmente por mujeres de color, lo cual es apropiado ya que los estudios, incluidos los de Buolamwini, revelan que los sistemas de reconocimiento facial tienen tasas de precisión mucho más bajas al identificar rostros femeninos y piel más oscura en comparación con los rostros masculinos blancos.

Recientemente ha habido una reacción violenta contra el reconocimiento facial. IBM, Amazon y Microsoft han detenido o restringido las ventas de su tecnología. Las ciudades de EE. UU., Incluidas Boston y San Francisco, han prohibido el uso del reconocimiento facial por parte del gobierno, reconociendo problemas de prejuicio racial.

La gente parece tener diferentes experiencias con la tecnología. El documental muestra a un peatón perplejo en Londres multado por cubrirse parcialmente la cara mientras pasa junto a una camioneta de vigilancia policial. En las calles de Hangzhou, China, nos encontramos con una patinadora que dice que aprecia la conveniencia del reconocimiento facial, ya que le permite ingresar a las estaciones de tren y su complejo residencial.

"Si una IA sospecha que eres un jugador, es posible que se te presenten anuncios de tarifas con descuento en Las Vegas"

La película también explora cómo los algoritmos de toma de decisiones pueden ser susceptibles al sesgo. En 2014, por ejemplo, Amazon desarrolló una herramienta experimental para filtrar aplicaciones para puestos de tecnología. La herramienta, que no fue diseñada para ser sexista, recortó los currículos que mencionaban colegios o grupos de mujeres, tomando en cuenta el desequilibrio de género en los currículums presentados a la empresa. La herramienta nunca se ha utilizado para evaluar candidatos para un puesto.

Los sistemas de inteligencia artificial también pueden crear una imagen de las personas mientras navegan por Internet, como el documental de investigación. Pueden mencionar cosas que no revelamos, dice Zeynep Tufekci de la Universidad de Carolina del Norte en Chapel Hill en la película. Los anunciantes en línea pueden dirigirse a las personas. Por ejemplo, si un sistema de inteligencia artificial sospecha que eres un jugador compulsivo, es posible que te ofrezcan tarifas con descuento para Las Vegas, dice.

En la Unión Europea, el Reglamento general de protección de datos ayuda a que las personas tengan un mejor control sobre sus datos personales hasta cierto punto, pero no existe un reglamento equivalente en los Estados Unidos.

“La protección de datos es la asignatura pendiente del movimiento de derechos civiles”, dijo Kantayya. La película sostiene que la empresa debería responsabilizar a los fabricantes de software de IA. Aboga por un organismo regulador para proteger al público de sus prejuicios y prejuicios.

Al final de la película, Buolamwini testifica ante el Congreso de los Estados Unidos para abogar por la regulación. Quiere que la gente apoye la justicia, la transparencia y la responsabilidad en el uso de la IA que gobierna nuestras vidas. Ahora ha fundado un grupo llamado Algorithmic Justice League, que trata de resaltar estos problemas.

Kantayya dijo que se inspiró para hacer Coded Bias por Buolamwini y otros matemáticos y científicos brillantes y rudos. Este es un relato revelador de los peligros de la vigilancia invasiva y los sesgos en la IA.

Obtenga más información sobre estos temas:

[ad_2]

Sé el primero en comentar

Deja un comentario