2 de abril 2019 | 3:25 pm
Las críticas por la cantidad de contenido falso, incendiario y tóxico en YouTube son actualmente generalizadas, pero desde hace años, los cuestionamientos eran parte de la discusión al interior de la empresa y de Google, dueña del sitio de videos más grande del mundo.
Una investigación de Bloomberg, basada en conversaciones con más de 20 personas que trabajan en YouTube o que se fueron recientemente, revela un liderazgo corporativo que no puede o no está dispuesto a actuar sobre estas alarmas internas por temor a la limitación del compromiso.
Una portavoz de Youtube aseguró que la compañía ha pasado los últimos dos años combatiendo este tipo de contenido, pero los problemas surgen desde el núcleo de su modelo de negocio.
“El problema de YouTube es que permite que florezca la tontería. Y, en algunos casos, a través de su poderoso sistema de inteligencia artificial, incluso proporciona el combustible que le permite propagarse”, señala Bloomberg.
Una biblioteca
El año pasado, Susan Wojcicki, CEO de YouTube, apareció en una conferencia para defender a su compañía, martillada durante meses por alimentar falsedades en línea.
En ese momento, YouTube se estaba recuperando de otro estallido que involucraba un video de teoría de conspiración sobre el tiroteo en la preparatoria de Parkland, Florida, que sugería que las víctimas eran “actores de crisis”.
Esa fue una aparición excepcional, según una persona que trabajó para ella. “Su opinión era: ‘Mi trabajo es dirigir la compañía, no lidiar con esto’”. Esta persona, al igual que otras que hablaron con Bloomberg, pidió no ser identificada debido a una preocupación por represalias.
Youtube -que tiene ventas anuales de más de 16,000 millones de dólares- fue comparado en aquel momento con una biblioteca por su directiva, argumentando una posición familiar como defensora de la libertad de expresión. “Siempre ha habido controversias, si nos fijamos en las bibliotecas”, aseguró Wojcicki.
Y es que no se trataba de acusaciones menores; las teorías de conspiración de la plataforma iban desde videos en contra de la vacunación infantil hasta la vinculación de Hillary Clinton con un culto satánico.
A un año de la polémica, los legisladores siguen ansiosos por regular a las tecnológicas, Mark Zuckerberg ya cambió su postura para pedir más regulación y Youtube está cada vez más asociada en la mente de las personas con las partes oscuras de la web, de acuerdo con Bloomberg.
Modelo de negocio
Durante años, la compañía persiguió un solo objetivo: engagement, que mide la cantidad de reproducciones, el tiempo que ve cada usuario y las interacciones con los videos. Según fuentes, los líderes de YouTube evitaron durante años tomar medidas contra los contenidos falsos por temor a afectar el engagement.
Micah Shaffer, quien se unió a la empresa nueve meses antes de que fuera adquirida por Google, aún recuerda cuando hubo una explosión de videos proanorexia, que fueron rápidamente bloqueados, pues ponían en riesgo la salud de los usuarios.
En la última década, dice, YouTube priorizó las ganancias sobre la seguridad de sus usuarios.
Ante la falta de rentabilidad tras la compra, Google involucró a más de sus ejecutivos en YouTube y, en 2012, comenzaron a empujar por un mayor consumo de videos por cada usuario, para poder mostrarles más publicidad. ¿La manera de lograrlo? Recomendar contenidos relacionados al término de cada video.
Y en octubre de 2016 lograron su cometido: mil millones de horas vistas diariamente. Pero nunca se detuvieron a pensar en lo negativo: entre más impresionantes eran los videos, más tiempo eran vistos, impulsando la ‘viralidad negativa’.
Además, el sistema recomendaba contenidos similares, por ejemplo: videos contra vacunas a quienes ya habían visto uno, adentrándolos en un pozo en el que quedaban rodeados de las mismas opiniones, sin importar lo erróneas que fueran.
En respuesta, YouTube destaca que, desde 2017, ha recomendado clips basados en una métrica llamada ‘responsabilidad’, que incluye comentarios de encuestas de satisfacción que se muestran después de los videos.
En julio pasado, la empresa dijo que comenzaría a mostrar ligas de fuentes ‘con autoridad’, como medios periodísticos, en su sección de noticias, además de aplicar una medida propuesta por Wojcicki: recuadros con ligas a Wikipedia y otras fuentes, aunque solo de manera esporádica.
Entre sus esfuerzos, la plataforma dijo a EL CEO que “actualizaron el sistema de recomendaciones para prevenir la propagación dañina de información falsa, llevando el número de personas enfocadas en problemas de contenido dentro de Google a 10,000, invirtiendo en aprendizaje automático para ser capaces de detectar y remover más rápido el contenido inapropiado”.
YouTube asegura que en el último año realizó más de 30 actualizaciones en sus políticas y que continuará modificándolas conforme lo juzgue necesario.
YouTube ignoró las advertencias y dejó que los videos tóxicos se desbordaran
Pool CEO
Comparte
2 de abril 2019 | 3:25 pm
Las críticas por la cantidad de contenido falso, incendiario y tóxico en YouTube son actualmente generalizadas, pero desde hace años, los cuestionamientos eran parte de la discusión al interior de la empresa y de Google, dueña del sitio de videos más grande del mundo.
Una investigación de Bloomberg, basada en conversaciones con más de 20 personas que trabajan en YouTube o que se fueron recientemente, revela un liderazgo corporativo que no puede o no está dispuesto a actuar sobre estas alarmas internas por temor a la limitación del compromiso.
Una portavoz de Youtube aseguró que la compañía ha pasado los últimos dos años combatiendo este tipo de contenido, pero los problemas surgen desde el núcleo de su modelo de negocio.
“El problema de YouTube es que permite que florezca la tontería. Y, en algunos casos, a través de su poderoso sistema de inteligencia artificial, incluso proporciona el combustible que le permite propagarse”, señala Bloomberg.
Una biblioteca
El año pasado, Susan Wojcicki, CEO de YouTube, apareció en una conferencia para defender a su compañía, martillada durante meses por alimentar falsedades en línea.
En ese momento, YouTube se estaba recuperando de otro estallido que involucraba un video de teoría de conspiración sobre el tiroteo en la preparatoria de Parkland, Florida, que sugería que las víctimas eran “actores de crisis”.
Esa fue una aparición excepcional, según una persona que trabajó para ella. “Su opinión era: ‘Mi trabajo es dirigir la compañía, no lidiar con esto’”. Esta persona, al igual que otras que hablaron con Bloomberg, pidió no ser identificada debido a una preocupación por represalias.
Youtube -que tiene ventas anuales de más de 16,000 millones de dólares- fue comparado en aquel momento con una biblioteca por su directiva, argumentando una posición familiar como defensora de la libertad de expresión. “Siempre ha habido controversias, si nos fijamos en las bibliotecas”, aseguró Wojcicki.
Y es que no se trataba de acusaciones menores; las teorías de conspiración de la plataforma iban desde videos en contra de la vacunación infantil hasta la vinculación de Hillary Clinton con un culto satánico.
A un año de la polémica, los legisladores siguen ansiosos por regular a las tecnológicas, Mark Zuckerberg ya cambió su postura para pedir más regulación y Youtube está cada vez más asociada en la mente de las personas con las partes oscuras de la web, de acuerdo con Bloomberg.
Modelo de negocio
Durante años, la compañía persiguió un solo objetivo: engagement, que mide la cantidad de reproducciones, el tiempo que ve cada usuario y las interacciones con los videos. Según fuentes, los líderes de YouTube evitaron durante años tomar medidas contra los contenidos falsos por temor a afectar el engagement.
Micah Shaffer, quien se unió a la empresa nueve meses antes de que fuera adquirida por Google, aún recuerda cuando hubo una explosión de videos proanorexia, que fueron rápidamente bloqueados, pues ponían en riesgo la salud de los usuarios.
En la última década, dice, YouTube priorizó las ganancias sobre la seguridad de sus usuarios.
Ante la falta de rentabilidad tras la compra, Google involucró a más de sus ejecutivos en YouTube y, en 2012, comenzaron a empujar por un mayor consumo de videos por cada usuario, para poder mostrarles más publicidad. ¿La manera de lograrlo? Recomendar contenidos relacionados al término de cada video.
Y en octubre de 2016 lograron su cometido: mil millones de horas vistas diariamente. Pero nunca se detuvieron a pensar en lo negativo: entre más impresionantes eran los videos, más tiempo eran vistos, impulsando la ‘viralidad negativa’.
Además, el sistema recomendaba contenidos similares, por ejemplo: videos contra vacunas a quienes ya habían visto uno, adentrándolos en un pozo en el que quedaban rodeados de las mismas opiniones, sin importar lo erróneas que fueran.
En respuesta, YouTube destaca que, desde 2017, ha recomendado clips basados en una métrica llamada ‘responsabilidad’, que incluye comentarios de encuestas de satisfacción que se muestran después de los videos.
En julio pasado, la empresa dijo que comenzaría a mostrar ligas de fuentes ‘con autoridad’, como medios periodísticos, en su sección de noticias, además de aplicar una medida propuesta por Wojcicki: recuadros con ligas a Wikipedia y otras fuentes, aunque solo de manera esporádica.
Entre sus esfuerzos, la plataforma dijo a EL CEO que “actualizaron el sistema de recomendaciones para prevenir la propagación dañina de información falsa, llevando el número de personas enfocadas en problemas de contenido dentro de Google a 10,000, invirtiendo en aprendizaje automático para ser capaces de detectar y remover más rápido el contenido inapropiado”.
YouTube asegura que en el último año realizó más de 30 actualizaciones en sus políticas y que continuará modificándolas conforme lo juzgue necesario.
Comparte
Pool CEO
Comparte
Twitch: ¿quién es el dueño de la plataforma de transmisiones más popular?
Neuralink, de Elon Musk, obtuvo la aprobación de la FDA para iniciar el estudio de implantes cerebrales en humanos
JPMorgan utilizará IA similar a la de ChatGPT para recomendar inversiones a sus clientes