25 de enero 2021 | 5:00 am
Twitter suspendió el 21 de enero las cuentas de tres usuarios a favor del presidente Andrés Manuel López Obrador por “violar las reglas de spam y manipulación de la plataforma”. Las cuentas suspendidas fueron las de @lovrega, @elreytuitero y @miriam_junne.
Esto se dio un día después de que López Obrador señalara equivocadamente al director de la red social en México de ser muy cercano al Partido Acción Nacional (PAN), cuestionando su neutralidad.
“Porque me encontré eso y como mi pecho no es bodega… Sin embargo, sólo esperamos que haga su trabajo de manera profesional, que no promuevan la creación de granjas de bots”, dijo López Obrardor mientras mostraba el perfil de LinkedIn de Hugo Rodríguez Nicolat, quien no es el director de Twitter en México, sino el embajador de Política Pública de la red social para México y Latinoamérica.
Ante lo sucedido, en un poco usual pronunciamiento público, la red social dijo que era lamentable ver ese tipo de comentarios contra sus empleados.
Ninguna persona en Twitter es responsable, por sí sola, de nuestras políticas o acciones de cumplimiento, y es lamentable ver comentarios dirigidos a nuestros empleados como responsables únicos de las decisiones o reglas de la empresa
dijo Twitter México
La suspensión de cuentas generó diversas suposiciones y afirmaciones con respecto a Twitter. Incluso, se generó la tendencia de #TwitteresPanista porque consideraron el cierre de cuentas como represalia contra López Obrador.
Esto abrió al cuestionamiento sobre cómo se procede a la suspensión de cuentas en la plataforma de Twitter.
Hay que hacer énfasis en que la suspensión de cuentas muchas veces es derivada por denuncias por parte de otros usuarios respecto a tuits en los que se realizan expresiones con las que se violan políticas de comunidad que tiene Twitter
Agneris Sampieri, abogada en la Red de Defensa de Derechos Digitales (R3D)
Sampieri comentó que es bueno que las suspensiones sean a partir de que se realizan denuncias. Esto debido a que no existen mecanismos de censura previa por parte de las plataformas.
Cada vez que existe un proceso de denunciar una cuenta, las denuncias son analizadas y procesadas en algunos casos por el algoritmo y otros por personas y dependiendo de la situación se llega a la determinación de la cuenta.
No es porque alguna persona de Twitter México tenga un botón maestro para suspender cuentas. Se acreditan los criterios para la suspensión y también para posteriormente iniciar un proceso de apelación en caso de considerar que se tomó una consideración errónea
Agneris Sampieri
Por su parte, Vladimir Cortés, oficial del Programa de Derechos Digitales para Artículo 19, comentó a EL CEO que no solo se trata de la responsabilidad que puede tener una plataforma como Twitter, sino también del lado del Estado también debe haber esa misma transparencia y acceso a información para que se tenga claridad y no se genere sospecha o desconfianza.
En la medida que podamos tener esta claridad en ambas partes nos permite, más allá de cuestiones ideológicas y políticas, que haya apego a derecho, legalidad y a estándares
Vladimir Cortés
Cortés reconoce que hay una necesidad por parte de las plataformas de redes sociales de seguir fortaleciendo la transparencia y el debido proceso.
Aunque, de acuerdo con Cortés, hay distintos esfuerzos y llamados desde sociedad civil para que las plataformas sigan los Principios de Santa Clara, serie de estándares y marcos de actuación que garanticen la rendición de cuentas y claridad de decisiones que se están tomando.
Reforzar transparencia de las plataformas
Los Principios de Santa Clara hacen énfasis en tres principios que tienen que tomar a consideración las empresas para asegurar la libertad de expresión y otros derechos dentro de sus propios espacios.
1.Números: está enfocado en la importancia de los informes de transparencia a través de los cuales puede reflejar, por ejemplo, cuántas cuentas han sido suspendidas porque han sido suspendidas. Si fueron analizadas a través de algoritmos o por personas. Si estas suspensiones fueron apeladas, cuántas exitosas para los usuarios y cuantas para la plataforma.
2.Notificación: las empresas, como Twitter, deben explicar por qué y cómo está sancionado al usuario. Así como una explicación del proceso mediante el cual el usuario puede apelar la decisión de la plataforma.
3.Apelación: las empresas deben brindar una oportunidad significativa para apelar oportunamente cualquier eliminación de contenido o suspensión de la cuenta. Así como como dotar de un sistema a través del cual los usuarios de estas plataformas puedan quejarse y rechazar una decisión ya tomada.
Con motivo de la primera conferencia Content Moderation at Scale en Santa Clara, el 2 de febrero de 2018, se convocó un pequeño taller privado de organizaciones, defensores y expertos académicos que apoyan el derecho a la libre expresión en línea para considerar la mejor manera de obtener transparencia significativa y responsabilidad en torno a la moderación del contenido generado por los usuarios.
Por lo que en la segunda conferencia Content Moderation at Scale en Washington, el 7 de mayo de 2018, se propusieron los tres principios como pasos iniciales que las empresas dedicadas a la moderación de contenido deben tomar para brindar un debido proceso significativo a los oradores afectados y garantizar mejor que la aplicación de sus pautas de contenido es justa, imparcial, proporcional y respetuosa de los derechos de los usuarios.
De acuerdo con Sampieri, no todas las plataformas retoman estos tres principios pero el hecho de que más plataformas y servicios puedan apegarse a estos principios le dará más certeza a la sociedad civil y a las propias autoridades.
Ayudan para que las mismas plataformas puedan defenderse de calificativos como que no son imparcial o que tienen una postura política
Agneris Sampieri
Riesgos de la participación del Estado en la moderación
En la moderación de contenidos aún se requiere mejorar los estándares bajo los cuales se realiza, aunque, desde la organización Artículo 19 debe darse bajo el marco de la autorregulación, de acuerdo con Cortés.
Estas decisiones de suspensión de cunetas no debe pasar a manos de gobiernos. Este llamado que se ha estado haciendo de una intervención por parte del Estado. Vemos necesario seguir manteniendo una discusión y enfoque multisectorial. Internet sigue siendo un espacio donde confluye sociedad civil, academia, gobierno y sector privado
Vladimir Cortés
Por lo que, desde Artículo 19 se ha insistido en la creación de consejos de redes sociales, es decir, órganos de supervisión independiente de múltiples partes interesadas que pueden garantizar y apoyar en el ejercicio de la moderación de contenidos. Este tipo de organismos de vigilancia externa, según Cortés, podrían balancear dos grandes poderes: Estado y plataformas.
Suspensión de cuentas de Twitter a favor de AMLO: más allá de la censura
Marisol Morelos
marisol.morelos@elceo.com
Comparte
25 de enero 2021 | 5:00 am
Twitter suspendió el 21 de enero las cuentas de tres usuarios a favor del presidente Andrés Manuel López Obrador por “violar las reglas de spam y manipulación de la plataforma”. Las cuentas suspendidas fueron las de @lovrega, @elreytuitero y @miriam_junne.
Esto se dio un día después de que López Obrador señalara equivocadamente al director de la red social en México de ser muy cercano al Partido Acción Nacional (PAN), cuestionando su neutralidad.
“Porque me encontré eso y como mi pecho no es bodega… Sin embargo, sólo esperamos que haga su trabajo de manera profesional, que no promuevan la creación de granjas de bots”, dijo López Obrardor mientras mostraba el perfil de LinkedIn de Hugo Rodríguez Nicolat, quien no es el director de Twitter en México, sino el embajador de Política Pública de la red social para México y Latinoamérica.
Ante lo sucedido, en un poco usual pronunciamiento público, la red social dijo que era lamentable ver ese tipo de comentarios contra sus empleados.
dijo Twitter México
La suspensión de cuentas generó diversas suposiciones y afirmaciones con respecto a Twitter. Incluso, se generó la tendencia de #TwitteresPanista porque consideraron el cierre de cuentas como represalia contra López Obrador.
Esto abrió al cuestionamiento sobre cómo se procede a la suspensión de cuentas en la plataforma de Twitter.
Agneris Sampieri, abogada en la Red de Defensa de Derechos Digitales (R3D)
Sampieri comentó que es bueno que las suspensiones sean a partir de que se realizan denuncias. Esto debido a que no existen mecanismos de censura previa por parte de las plataformas.
Cada vez que existe un proceso de denunciar una cuenta, las denuncias son analizadas y procesadas en algunos casos por el algoritmo y otros por personas y dependiendo de la situación se llega a la determinación de la cuenta.
Agneris Sampieri
Por su parte, Vladimir Cortés, oficial del Programa de Derechos Digitales para Artículo 19, comentó a EL CEO que no solo se trata de la responsabilidad que puede tener una plataforma como Twitter, sino también del lado del Estado también debe haber esa misma transparencia y acceso a información para que se tenga claridad y no se genere sospecha o desconfianza.
Vladimir Cortés
Cortés reconoce que hay una necesidad por parte de las plataformas de redes sociales de seguir fortaleciendo la transparencia y el debido proceso.
Aunque, de acuerdo con Cortés, hay distintos esfuerzos y llamados desde sociedad civil para que las plataformas sigan los Principios de Santa Clara, serie de estándares y marcos de actuación que garanticen la rendición de cuentas y claridad de decisiones que se están tomando.
Reforzar transparencia de las plataformas
Los Principios de Santa Clara hacen énfasis en tres principios que tienen que tomar a consideración las empresas para asegurar la libertad de expresión y otros derechos dentro de sus propios espacios.
1.Números: está enfocado en la importancia de los informes de transparencia a través de los cuales puede reflejar, por ejemplo, cuántas cuentas han sido suspendidas porque han sido suspendidas. Si fueron analizadas a través de algoritmos o por personas. Si estas suspensiones fueron apeladas, cuántas exitosas para los usuarios y cuantas para la plataforma.
2.Notificación: las empresas, como Twitter, deben explicar por qué y cómo está sancionado al usuario. Así como una explicación del proceso mediante el cual el usuario puede apelar la decisión de la plataforma.
3.Apelación: las empresas deben brindar una oportunidad significativa para apelar oportunamente cualquier eliminación de contenido o suspensión de la cuenta. Así como como dotar de un sistema a través del cual los usuarios de estas plataformas puedan quejarse y rechazar una decisión ya tomada.
Con motivo de la primera conferencia Content Moderation at Scale en Santa Clara, el 2 de febrero de 2018, se convocó un pequeño taller privado de organizaciones, defensores y expertos académicos que apoyan el derecho a la libre expresión en línea para considerar la mejor manera de obtener transparencia significativa y responsabilidad en torno a la moderación del contenido generado por los usuarios.
Por lo que en la segunda conferencia Content Moderation at Scale en Washington, el 7 de mayo de 2018, se propusieron los tres principios como pasos iniciales que las empresas dedicadas a la moderación de contenido deben tomar para brindar un debido proceso significativo a los oradores afectados y garantizar mejor que la aplicación de sus pautas de contenido es justa, imparcial, proporcional y respetuosa de los derechos de los usuarios.
De acuerdo con Sampieri, no todas las plataformas retoman estos tres principios pero el hecho de que más plataformas y servicios puedan apegarse a estos principios le dará más certeza a la sociedad civil y a las propias autoridades.
Agneris Sampieri
Riesgos de la participación del Estado en la moderación
En la moderación de contenidos aún se requiere mejorar los estándares bajo los cuales se realiza, aunque, desde la organización Artículo 19 debe darse bajo el marco de la autorregulación, de acuerdo con Cortés.
Vladimir Cortés
Por lo que, desde Artículo 19 se ha insistido en la creación de consejos de redes sociales, es decir, órganos de supervisión independiente de múltiples partes interesadas que pueden garantizar y apoyar en el ejercicio de la moderación de contenidos. Este tipo de organismos de vigilancia externa, según Cortés, podrían balancear dos grandes poderes: Estado y plataformas.
Comparte
Marisol Morelos
marisol.morelos@elceo.com
Comparte
Twitch: ¿quién es el dueño de la plataforma de transmisiones más popular?
Neuralink, de Elon Musk, obtuvo la aprobación de la FDA para iniciar el estudio de implantes cerebrales en humanos
JPMorgan utilizará IA similar a la de ChatGPT para recomendar inversiones a sus clientes