Las caras falsas creadas por IA parecen más confiables que las personas reales


rap«>Los rostros humanos sintéticos son tan convincentes que pueden engañar incluso a los observadores entrenados y pueden ser muy efectivos para las estafas.

La tecnologia


14 de febrero de 2022

Collage de rostros humanos hiperrealistas generados por IA, creado por GAN - Generative Adversarial Network

Un collage de caras falsas generadas por una IA

Anatolii Babii / Alamy

La inteligencia artificial puede crear rostros humanos tan realistas que las personas no pueden distinguirlos de los rostros reales, y en realidad confían más en los rostros falsos.

Los rostros humanos ficticios generados por computadora son tan convincentes que pueden engañar incluso a los observadores entrenados. Se pueden descargar fácilmente en línea y usarse para estafas en Internet y perfiles de redes sociales falsos.

«Deberíamos estar preocupados porque estos rostros sintéticos son increíblemente efectivos para propósitos nefastos, por ejemplo, para cosas como pornografía de venganza o fraude», dice Sophie Nightingale de la Universidad de Lancaster en el Reino Unido.

Únase a nosotros para un festival alucinante de ideas y experiencias. Nuevo científico en vivo se vuelve híbrido, con un evento en vivo en Manchester, Reino Unido, que también puede disfrutar desde la comodidad de su hogar, del 12 al 14 de marzo de 2022. Más información.

Los programas de IA llamados Generative Adversarial Networks, o GAN, aprenden a crear imágenes falsas que son cada vez más indistinguibles de las imágenes reales, al enfrentar dos redes neuronales entre sí.

Nightingale y su colega Hany Farid de la Universidad de California en Berkeley le preguntaron a 315 participantes no capacitados y 219 capacitados, reclutados de un sitio de crowdsourcing, que dijeran si podían distinguir una selección de 400 fotos falsas de 400 fotografías de personas reales. Cada conjunto estaba compuesto por 100 personas de cada uno de los cuatro grupos étnicos: blanco, negro, asiático oriental y asiático del sur. Luego pidieron a 223 participantes adicionales que calificaran una selección de las mismas caras en su nivel de confiabilidad, en una escala de 1 a 7.

Los participantes no entrenados tuvieron una tasa de precisión inicial del 48,2 %, algo peor que el azar, dice Nightingale. Aquellos entrenados para reconocer rostros generados por computadora tuvieron un éxito ligeramente mayor, con una tasa de precisión del 59%, pero esa diferencia es insignificante, dice ella. Los rostros blancos fueron los más difíciles de distinguir entre los reales y los falsos, posiblemente porque el software de síntesis se entrenó en rostros desproporcionadamente más blancos.

Los participantes calificaron las caras falsas como un 8 % más confiables, en promedio, que las caras reales, una diferencia pequeña pero significativa, según Nightingale. Eso puede deberse a que los rostros sintéticos se parecen más a los rostros humanos «promedio», y es más probable que las personas confíen en los rostros de aspecto típico, dice.

Hubo poca diferencia entre los grupos étnicos, aparte de una ligera tendencia de las personas a ver las caras negras como más confiables que las caras del sur de Asia.

Mirando los extremos, las cuatro caras consideradas menos confiables eran reales, mientras que las tres caras más confiables eran falsas.

“Necesitamos pautas éticas más estrictas y un marco legal más estricto, porque inevitablemente habrá personas que quieran usar [these images] herido, y eso es preocupante», dice Nightingale.

Para reducir esos riesgos, los desarrolladores podrían agregar marcas de agua a sus imágenes para marcarlas como falsas, dice. “En mi opinión, esto es bastante malo. Simplemente va a empeorar si no hacemos nada para detenerlo.

Referencia de la revista: PNASDOI: 10.1073/pnas.2120481119

Obtenga más información sobre estos temas:

Sé el primero en comentar

Deja un comentario