Por
Microsoft ha desarrollado inteligencia artificial para su software de videoconferencia Teams que tiene como objetivo hacer que las personas en una conversación remota se sientan más cómodas al resaltar las reacciones más positivas de la audiencia.
La IA, llamada AffectiveSpotlight, identifica las caras de los participantes y utiliza una red neuronal para clasificar sus expresiones en emociones como tristeza, felicidad y sorpresa, y detectar movimientos como sacudir la cabeza y asentir. También utiliza un sistema de detección de cejas para detectar confusión, en forma de frente arrugada.
Cada expresión se puntúa entre 0 y 1, y las respuestas positivas obtienen una puntuación más alta. Cada 15 segundos, la IA destaca al presentador a la persona con la puntuación más alta durante ese período.
Publicidad
Un portavoz de Microsoft Research dijo Científico nuevo que “resaltar las respuestas de la audiencia hace que el presentador sea más consciente de su audiencia y logra un ciclo de retroalimentación comunicativa”. El equipo de búsqueda rechazó una entrevista.
En una encuesta realizada por el equipo a 175 personas, el 83 por ciento de los que dan presentaciones dijeron que a menudo pierden los comentarios relevantes de la audiencia cuando se presentan en línea, especialmente las señales sociales no verbales.
Para ver si AffectiveSpotlight podría ayudar a resolver este problema, el equipo lo probó con un software que destacaba a los miembros de la audiencia al azar. AffectiveSpotlight solo destacó al 40% de los participantes en los chats, en comparación con el 87% del software aleatorio. Los oradores informaron sentirse más positivos al hablar con AffectiveSpotlight, aunque los miembros de la audiencia no pudieron discernir una diferencia en la calidad de la presentación en comparación con aquellos que usan IA.
Rua M. Williams de la Universidad Purdue, Indiana, se pregunta si la IA es muy útil. "Ciertamente es dudoso, en el mejor de los casos, que cualquier interpretación basada únicamente en audio o video, o en ambos, sea precisa", dicen.
A Williams también le preocupa que depender de la inteligencia artificial para analizar las emociones humanas, que son más complicadas de lo que parecen a primera vista, será problemático. "Si bien algunos estudios como este pueden mencionar problemas de privacidad y consentimiento, ninguno informa sobre cómo alguien podría cuestionar una interpretación inexacta de su impacto".
Referencia: arxiv.org/abs/2101.12284
Obtenga más información sobre estos temas:
Deja un comentario