TikTok revela el funcionamiento de su algoritmo de recomendaciones

Al igual que muchas plataformas y aplicaciones de redes sociales, los feeds TikTok se crean utilizando un algoritmo de recomendación que utiliza una serie de herramientas y factores para personalizarlo para cada persona. Ahora, TikTok ha presentado una nueva publicación en su blog que explica cómo funciona su feed de recomendaciones, e incluye consejos para personalizar el feed para evitar que se muestren vídeos aleatorios que podrían no interesar al usuario.

El algoritmo de TikTok se basa en factores de entrada que mide y monitorea el compromiso muy similar a YouTube

La forma en que las personas interactúan con TikTok afecta las recomendaciones que se ofrecen, incluida la publicación de un comentario o el seguimiento de una cuenta.

Por ejemplo, si alguien sigue cuentas de animales, y toca dos veces para dar me gusta o comentar vídeos sobre animales, TikTok les recomendará a cuentas de más animales. Esto también ayuda a informar al algoritmo de TikTok acerca de los vídeos virales y los que no interesa a la comunidad de usuarios.

Sin embargo, las interacciones del usuario son solo una parte de la ecuación. TikTok afirma que la información del vídeo, que «podría incluir detalles como subtítulos, sonidos y hashtags», y la configuración del dispositivo o la cuenta también tienen un efecto en el feed.

Según la publicación, la preferencia de idioma, la configuración del país y el tipo de dispositivo se toman en cuenta para garantizar que «el sistema esté optimizado para el rendimiento». Además, el informe establece que la configuración del dispositivo y la cuenta «reciben menos peso en el sistema de recomendaciones en relación con otros puntos de datos que medimos, ya que los usuarios no los expresan activamente como preferencias».

Una vez más, como YouTube, todo se reduce al compromiso. Si alguien termina un vídeo en lugar de pasar al siguiente a mitad de camino, esa acción se registra como una indicación más fuerte de interés. La publicación también enfatiza que su sistema de recomendaciones se basa en el contenido, no necesariamente en el creador.

TikTok es a menudo aplaudido por su sistema de recomendación

Una vez que se ajusta, la aplicación se convierte en una de las mejores experiencias de desplazamiento. Probablemente, esta sea una de las razones del ascenso meteórico de TikTok, especialmente durante el confinamiento, pues todo está tan perfectamente encuadrado para sus resaltar sus intereses específicos, y por eso resulta tan difícil apagar el teléfono una vez que el usuario ha sido absorbido por la plataforma.

La compañía en su publicación ha manifestado que “al optimizar la personalización y la relevancia, existe el riesgo de presentar una secuencia de vídeos cada vez más homogénea. Esta es una preocupación que tomamos en serio al mantener nuestro sistema de recomendaciones”. Así pues, las personas a quienes solo les gustan los vídeos de caballos por ejemplo, solo verán vídeos de caballos.

Además, otro riesgo del algoritmo de recomendación de TikTok es que muy posiblemente que te dirija el contenido y no deje espacio a descubrir nuevos temas que pueden ser de su agrado, por ejemplo, la aplicación ha sido criticada porque no mostraba vídeos de las protestas de Black Lives Matter o no recomiende a creadores discapacitados o pobres, si un usuario no se esfuerza específicamente para ajustar el algoritmo en esa dirección.

Un problema añadido al que TikTok se enfrenta es la aparición de contenido peligroso. Este es un problema por el que YouTube, en particular, ha enfrentado críticas durante muchos años. Según TikTok, el contenido que tiene material gráfico como procedimientos médicos o «consumo legal de productos regulados», como el alcohol, puede no ser elegible para las recomendaciones porque podría parecer «impactante si aparece como un vídeo recomendado para una audiencia general» – en otras palabras, dada la gran cantidad de menores que utiliza TikTok. Es por eso, que muchos creadores en TikTok suben un vídeo más de una vez o hablan abiertamente acerca de las prohibiciones de cierto contenido.

Aún así, TikTok ha enfrentado duras críticas de colectivos sociales e incluso minorías sociales por no recomendar contenido. Es un problema al que YouTube enfrenta habitualmente. De hecho, Google actualmente se enfrenta una demanda después de que varios creadores LGTBI afirmasen que YouTube ocultó sus vídeos en modo restringido y no mostró su contenido en sus recomendaciones. Por su parte, TikTok admitió que había suprimido el contenido de algunos creadores, con la intención de que fuera una solución contra la intimidación.

«Al principio, en respuesta a un aumento de la intimidación en la aplicación, implementamos una política contundente y temporal», dijo un portavoz de la compañía a The Verge. «Si bien la intención era buena, el enfoque era incorrecto y hace mucho tiempo que cambiamos la política anterior a favor de políticas anti-acoso más matizadas y con mejores protecciones en la aplicación».

Más Noticias

2 Comentarios

Responder a FreePlaton Cancelar respuesta