Youtube tiene un problema con el contenido extremista todavía más grave del que creen estar solucionando

YouTube

La ultima vez que contamos de Robert Kyncl, CBO de YouTube, estaba vinculado con el escándalo de Logan Paul y qué pensaba inventar la plataforma con ciertos contenidos. Kyncl continua tratando limpiar la foto de la compañia y en una entrevista a Hollywood Reporter ha ofrecido mas documentos atrayentes acerca de esta polémica.

No olvidemos que YouTube, al equivalente que Google, es una plataforma inspirada fuertemente en la publicidad. Por este motivo, la compañia se esta esforzando para recuperar la confianza de los anunciantes, tratando eludir que la propaganda aparezca en vídeos que podrían ser considerados como inapropiados.

Cada 2° se suben 400 horas de contenido a YouTube, así que es practicamente inútil revisar personalmente todo lo que se publica. Gracias a sus algoritmos, Kyncl afirma que son capaces de terminar mas sencillamente con el contenido extremista:

“Entre julio y diciembre de 2017 los algoritmos han realizado el trabajo de 180.000 individuos laborando 40 horas a la semana, solamente en vídeos extremistas”.

Youtube Algorithm

Kyncl afirma que “cuando todo el planeta puede tener una voz, puede que varias de esas individuos no tengan buenas intenciones”. Sobre el caso de Logan Paul en concreto, Kyncl declara que tras pausar los “proyectos originales” y sacarle de Google® Preferred él “ha estado cooperando en el proceso” para poder encajar en el ecosistema de la plataforma.

Reconoce que “debieron haberlo hecho mejor, siendo mas rápidos en la respuesta“, sin embargo no ha querido aclarar si este será el procedimiento con el que castigarán a los YouTubers que emulen este tipo de comportamiento.

Algoritmo al poder

Cada vez que entras a YouTube, la portada te recibe con una enorme selección de contenido que podría interesarte. Obviamente, esta basado en tus gustos: canales a los que estás suscrito, vídeos que hayas visto, vídeos a los que le hayas dado me gusta, etc.

Precisamente, The New York Times criticó duramente a YouTube hace unos días, afirmando que la plataforma practica como un “gran radicalizador” de nuestra sociedad. La autora del capítulo (Zeynep Tufekci) experimentó con el algoritmo de YouTube, comprobando como las recomendaciones siempre le mostraban la misma version de la historia.

Durante las elecciones del 2016 tuvo que visualizar muchos vídeos de mítines de Donald Trump. A partir de entonces YouTube comenzó a recomendarle vídeos de extrema derecha, algo que además sucedía en los vídeos que se reproducen automáticamente.

Recomendaciones radicalizadas, que exploran atraer visitas y que te introducen en un bucle repetitivo.

8a4ddf128be22d48 2048x1024

Como ella no consumía ese tipo de contenido, decidió inventar otra cuenta de YouTube y visualizar mítines de Bernie Sanders y Hillary Clinton. En este caso, las recomendaciones estaban relacionadas con teorías conspiratorias sobre las implicaciones del Gobierno en el atentado del once de septiembre de 2001.

Como vemos, en ambos casos YouTube aconsejó contenido completamente extremo, tanto de izquierdas como de derechas. Puede que este tipo de vídeos polémicos sirven para llamar la interés de los usuarios, buscando que pasen el máximo tiempo factible en la plataforma.

Además, los visitantes podrían tener la sensación de estar atrapados en una burbuja, algo que además se puede aplicar para redes sociales como Facebook. Se busca que la propaganda y el contenido recomendado sea mas afín a nuestros gustos, sin embargo este tipo de medidas podrían servir para dividir aún mas a la sociedad.

Kyncl afirma que YouTube opera bajo 4 principios de libertad: libertad de expresión, libertad de oportunidad, libertar de pertenecer y libertad de informar. Cuando le preguntan si la compañia toma decisiones basándose en unas ideas políticas, el CBO se defiende afirmando que YouTube “no trata posicionarse de un lado de otro”.

En Genbeta | Mira y comparte vídeos de YouTube en una interfaz minimalista y libre de distracciones

También te recomendamos

Condenan a la chica que deseó en Facebook® que violaran "en grupo" a Inés Arrimadas

Qué son y como eludir los chicharros en la Bolsa

Cómo continuar en directo la ultima hora y los resultados del 21D por Internet


La novedad Youtube® tiene un dilema con el contenido extremista aún mas grave del que sospechan estar solucionando fue publicada originalmente en Genbeta por Santi Araújo .


Genbeta



Agradecemos a la fuente original por la información que nos ayudo a crear este articulo.

También puedes revisar estas noticias relacionadas.

Tags: #contenido #creen #estar #extremista #grave #más #problema #solucionando #tiene #todavía #Youtube

Deja un comentario

Author: 
    author