Se verán afectados videos «que digan que la tierra es plana, o que difunda mentiras descaradas sobre eventos históricos como el 9/11».
La plataforma de streaming de videos YouTube anunció que dejará de recomendar videos que «se acerquen a» violar sus políticas de conducta, como los videos de teorías de conspiraciones o que realizen recomendaciones médicas incorrectas.
Esto significa que a partir de ahora si una persona reproduce un video de recetas de cocina, las próximas sugerencias van a ir en línea con esos contenidos en vez de sugerir curas milagrosas, que la tierra es plana, que el 9/11 fue un ataque alienígena, o que la Luna es hueca y fue creada también por extraterrestres.
La empresa explica que esto no afectará a los suscriptores de canales con este tipo de contenidos, y si quieren buscar conspiraciones seguirán apareciendo en el buscador.
Un exingeniero de Google, Guillaume Chaslot, celebró el anuncio explicando que fue parte de quienes desarrollaron el algoritmo de sugerencias de YouTube «para incrementar el tiempo que las personas están conectadas porque eso significa vender más anuncios», pero luego encontraron que habían usuarios obsesivos que consumían muchísimos contenidos y que terminaban distorsionando a la inteligencia artificial de las recomendaciones.
There are 2 ways to fix vicious circles like with «flat earth»
1) make people spend more time on round earth videos
2) change the AIYouTube’s economic incentive is for solution 1).
After 13 years, YouTube made the historic choice to go towards 2)Will this fix work? 11/
— Guillaume Chaslot (@gchaslot) 9 de febrero de 2019