Twitter admite que su algoritmo es racista

Twitter acepta la responsabilidad tras la polémica surgida por el sesgo racista de su algoritmo de recorte de imágenes
Comparte este artículo:

La polémica y el conflicto se han convertido en los últimos años en la tónica habitual del contenido generado en Twitter, pero durante la semana pasada no fueron los usuarios los que más confrontación crearon en esta red social, sino la propia empresa. Twitter se vio envuelto en una vorágine de acusaciones cuando algunos tuiteros comprobaron el sesgo racista que la herramienta de recorte de imágenes aplicaba.

Cuando las imágenes son demasiado alargadas Twitter las recorta para mostrar una previsualización en el timeline antes de abrir el tuit, mostrando lo que considera más relevante o lo que cree que puede captar la atención del usuario. Tras realizar varios experimentos con personas de distinto color de piel, la comunidad de la red del pájaro azul advirtió que siempre se daba prioridad a quienes eran blancos. Algunos representantes de Twitter se disculparon públicamente, aceptando la responsabilidad de lo que estaba ocurriendo e incluso agradeciendo a los usuarios el toque de atención masivo.

El objetivo de Twitter a partir de ahora es mejorar el algoritmo realizando más análisis y pruebas, al tiempo que comunican los avances, para lograr una mayor transparencia. Es por esto que en el día de ayer emitieron un comunicado para aclarar lo sucedido. “Esperamos que ofrecer a las personas más opciones para recortar imágenes y obtener una vista previa de cómo se verán en el redactor de tweets pueda ayudar a reducir el riesgo de daños”, se puede leer en la nota publicada en su blog oficial.

Twitter usa un sistema de red neuronal

Twitter había anunciado la incorporación de esta herramienta de recorte de imágenes en 2018, con el objetivo de mejorar la uniformidad del timeline y aumentar el número de tuits que se pueden ver de un vistazo. En un principio se basaron en la detección de caras, pero este sistema no resultó demasiado exitoso, ya que en ocasiones no las reconocía o lo hacía cuando en la imagen no aparecía ninguna.

Optaron entonces por un método diferente y desarrollaron una red neuronal que se centraba en aquellas partes de la imagen con mayor “prominencia”, es decir, en las que el usuario tendería a fijarse en primer lugar. Este sistema fue testado y no se encontraron evidencias de que existiese discriminación alguna en cuanto a raza o género.

Sin embargo, Twitter reconoce que existe un “potencial de daño” en la manera en la que actualmente se ajustan las imágenes. “Deberíamos haber hecho un mejor trabajo al anticipar esta posibilidad cuando diseñamos y construimos este producto por primera vez”, admiten en el comunicado.

Para el futuro más cercano, la red social prevé mejorar esta herramienta primando la elección del usuario que publica una foto, es decir, “lo que ves es lo que hay”. En el caso de que las imágenes tengan formas o tamaños alejados del estándar, Twitter experimentará con la manera en que presenta la foto en el timeline sin restarle integridad a la misma ni perder el foco previsto por el tuitero.

Twitter finaliza su comunicado de manera optimista y abierta, entendiendo que hoy en día este tipo de cuestiones, afortunadamente, ya no resultan inocuas: “Hay mucho trabajo por hacer, pero estamos agradecidos por todos los que hablaron y compartieron sus comentarios al respecto. Estamos ansiosos por mejorar y compartiremos actualizaciones adicionales a medida que las tengamos”.

Más Noticias

Dejar respuesta