9 de diciembre 2018 | 8:07 am
Los bots que difunden fake news evolucionan para replicar esta información de una manera similar a como lo hacen los humanos, pero en los primeros segundos de su publicación y con menos posibilidades de ser detectados, revela un estudio de la Universidad de Indiana publicado en la revista Nature
Después de las elecciones en Estados Unidos de 2016, los investigadores trataron de entender el papel que desempeñaron los robots en la difusión de fake news. Algunas tácticas clave que el estudio reconoció son:
Los bots difunden el contenido de poca credibilidad a una mayor velocidad antes de que se vuelva viral.
“Conjeturamos que esta intervención temprana expone a muchos usuarios a artículos de baja credibilidad, lo que aumenta las posibilidades de que un artículo se vuelva viral”, explicó el estudio.
- Uso de objetivos específicos
Los bots dirigen a personas específicas, en su mayoría influencers la exposición al contenido negativo en redes sociales, de acuerdo al Proceedings of the National Academy of Sciences (PNAS).
Esto con el fin de dirigir el contenido más rápidamente que si estuviera expuesto a usuarios cotidianos u otros robots, según los autores del estudio.
- Prefieren el contenido humano
Prefieren explotar el contenido generado por el hombre, porque es más propenso a la polarización, detalla el estudio de PNAS.
“Promueven contenido generado por humanos, en lugar de tuits automatizados”, señala el informe.
- Orientación a publicaciones originales, no respuestas:
Difunden el contenido de baja credibilidad que se crea a través de un tuit o la publicación de un usuario, de acuerdo con el estudio de Nature.
“La mayoría de los artículos de fuentes de baja credibilidad se difunden a través de tuits y retuits originales, mientras que pocos se comparten en respuestas”, explica el estudio.
“Esto es diferente de los artículos por las fuentes de verificación de datos, que se comparten principalmente a través de retuits pero también de respuestas”, agrega Nature.
La manipulación de la metadata es otro método que utilizan para imitar el comportamiento humano y evitar la detección, según un nuevo estudio de Data & Society.
Utilizan leyendas de fotos, seguidores y comentarios con patrones similares para hacer que sus publicaciones sean más parecidas a las de los humanos.
Bots de fake news son más inteligentes de lo que se cree
Pool CEO
Comparte
9 de diciembre 2018 | 8:07 am
Los bots que difunden fake news evolucionan para replicar esta información de una manera similar a como lo hacen los humanos, pero en los primeros segundos de su publicación y con menos posibilidades de ser detectados, revela un estudio de la Universidad de Indiana publicado en la revista Nature
Después de las elecciones en Estados Unidos de 2016, los investigadores trataron de entender el papel que desempeñaron los robots en la difusión de fake news. Algunas tácticas clave que el estudio reconoció son:
Los bots difunden el contenido de poca credibilidad a una mayor velocidad antes de que se vuelva viral.
“Conjeturamos que esta intervención temprana expone a muchos usuarios a artículos de baja credibilidad, lo que aumenta las posibilidades de que un artículo se vuelva viral”, explicó el estudio.
Los bots dirigen a personas específicas, en su mayoría influencers la exposición al contenido negativo en redes sociales, de acuerdo al Proceedings of the National Academy of Sciences (PNAS).
Esto con el fin de dirigir el contenido más rápidamente que si estuviera expuesto a usuarios cotidianos u otros robots, según los autores del estudio.
Prefieren explotar el contenido generado por el hombre, porque es más propenso a la polarización, detalla el estudio de PNAS.
“Promueven contenido generado por humanos, en lugar de tuits automatizados”, señala el informe.
Difunden el contenido de baja credibilidad que se crea a través de un tuit o la publicación de un usuario, de acuerdo con el estudio de Nature.
“La mayoría de los artículos de fuentes de baja credibilidad se difunden a través de tuits y retuits originales, mientras que pocos se comparten en respuestas”, explica el estudio.
“Esto es diferente de los artículos por las fuentes de verificación de datos, que se comparten principalmente a través de retuits pero también de respuestas”, agrega Nature.
La manipulación de la metadata es otro método que utilizan para imitar el comportamiento humano y evitar la detección, según un nuevo estudio de Data & Society.
Utilizan leyendas de fotos, seguidores y comentarios con patrones similares para hacer que sus publicaciones sean más parecidas a las de los humanos.
Comparte
Pool CEO
Comparte
Twitch: ¿quién es el dueño de la plataforma de transmisiones más popular?
Neuralink, de Elon Musk, obtuvo la aprobación de la FDA para iniciar el estudio de implantes cerebrales en humanos
JPMorgan utilizará IA similar a la de ChatGPT para recomendar inversiones a sus clientes