El problema radica en la naturaleza humana y el modelo de negocio de la plataforma, afirma una investigadora.
Si buscas un tema político en YouTube, es probable que te inciten a ver contenido cada vez más extremo, engañoso o completamente falso sobre ese tema. Si tu interés está en los temas de izquierda, por ejemplo, el algoritmo del sitio te orientará hacia las teorías de conspiración en ese ramo.
Lo contrario sucede con las búsquedas sobre temas conservadores.
Esa, al menos, fue la conclusión de la investigadora de comunicaciones Zeynep Tufecki después de un experimento informal descrito el sábado en el periódico The New York Times.
El ejercicio de Tufecki no fue científico.
El algoritmo de YouTube concluye que las personas se sienten atraídas a temas extremos.
Ella escribe que a Google no le gusta compartir datos duros con los investigadores, pero una investigación de The Wall Street Journal llegó a conclusiones similares el mes pasado con la ayuda de un ex ingeniero de YouTube
.De manera similar a las investigaciones recientes que muestran que las noticias falsas se propagan más rápido que los hechos en Twitter, estos hallazgos sobre el algoritmo de YouTube no pueden atribuirse a ningún plan nefasto para desestabilizar el mundo.
En cambio, el problema parece inherente a la intersección de la naturaleza humana y el modelo de negocio de YouTube.
Al igual que Facebook, Twitter y la buena televisión antigua, YouTube gana dinero con los anuncios y por lo tanto, con la atención del público.
Con el tiempo, el “algoritmo de YouTube parece haber llegado a la conclusión de que las personas se sienten atraídas por contenidos más extremos de los que empezaron, o por el contenido incendiario en general”, escribe Tufecki.
Pero YouTube, que como Facebook y Twitter preferiría ser visto como “plataforma neutral”, no asume el mismo tipo de responsabilidad por su contenido que una emisora de televisión.
Si eso es cierto, incluso una acción de aplicación más estricta en videos individuales, como la reciente decisión de YouTube de reprender al teórico de la conspiración Alex Jones, equivale a poco más que un juego de ‘whack-a-mole’.
Como señaló el Wall Street Journal en su informe del mes pasado, no tiene por qué ser así.
La empresa matriz de YouTube, Google, sopesa la confiabilidad del contenido al devolver resultados de búsqueda web, dando prioridad a los principales sitios de noticias.
YouTube ha elegido no implementar algo tan sencillo. La plataforma respondió al WSJ que tenía una tarea más difícil que Google, debido a la menor selección de videos sobre noticias de última hora, en comparación con las historias escritas.
Y, por supuesto, YouTube no creó divisiones políticas. Afirmarlo sería ignorar las tendencias a largo plazo, incluida la manipulación extrema y el aumento del dinero oscuro político que hace que los funcionarios electos sean más propensos a apelar a los extremos.
Pero YouTube y otras plataformas digitales pueden empeorar estos problemas y acelerarlos.