
[ad_1]
Por

Yiu Yu Hoi / Getty
La inteligencia artificial se utiliza para detectar la diferencia entre usuarios humanos y cuentas falsas de Twitter.
Emilio Ferrara de la Universidad del Sur de California en los Estados Unidos y sus colegas han entrenado a AI para detectar bots en Twitter basándose en las diferencias en los modelos de negocios entre cuentas reales y falsas.
El equipo analizó dos conjuntos de datos separados de usuarios de Twitter, que habían sido clasificados manualmente o por un algoritmo preexistente como bot o humano.
Publicidad
El conjunto de datos verificado manualmente incluía 8,4 millones de tweets de 3.500 cuentas humanas y 3,4 millones de tweets de 5.000 bots.
Los investigadores han descubierto que los usuarios humanos responden de cuatro a cinco veces más a otros tuits que los robots. Los usuarios reales se están volviendo gradualmente más interactivos, y la fracción de respuestas aumenta durante una sesión de una hora usando Twitter.
La duración de los tweets de usuarios humanos también disminuyó a medida que las sesiones progresaron. "La cantidad de información intercambiada está disminuyendo", dice Ferrara. Él cree que el cambio puede ser el resultado del agotamiento cognitivo con el tiempo, en el que las personas se vuelven menos propensas a gastar esfuerzo mental componiendo contenido original.
Los robots, por otro lado, no muestran ningún cambio en su interactividad o la longitud de la información que tuitean con el tiempo.
El equipo también analizó la duración entre dos tweets consecutivos del mismo usuario. Cuando se traza esta distribución, los bots han mostrado picos para ciertos intervalos de tiempo, como tweets a intervalos de 30 o 60 minutos.
Luego, el equipo combinó estas medidas para formar un algoritmo de detección de bot existente, llamado Botómetro, basado en la diferencia en los patrones de actividad. Era mucho más probable que AI detectara con precisión cuentas falsas que cuando ignoraba el calendario de lanzamiento.
El algoritmo podría usarse para complementar otras herramientas de detección de bot que analizan el lenguaje en las publicaciones, dice Ferrara.
Una de las limitaciones del estudio es que los datos de Twitter analizados por el equipo se remontan a tres años. Durante este tiempo, es posible que los robots se hayan vuelto más humanos en sus modelos de actividad.
Referencia del diario: Fronteras en Física, DOI: 10.3389 / fphy.2020.00125
Más sobre estos temas:
[ad_2]
Deja un comentario