Facebook presenta un documento sobre problemas de regulación de contenido online

Facebook utiliza la IA Rosetta para localizar el lenguaje ofensivo
Comparte este artículo:

El gigante tecnológico, Facebook, ha publicado un documento técnico que reconoce la necesidad potencial y las dificultades de la regulación de contenido online.

Al mismo tiempo, el CEO de la compañía, Mark Zuckerberg, ha admitido que su empresa al igual que el resto de las grandes tecnológicas, requieren de una mayor verificación de sus contenidos publicados.

En un artículo escrito por la vicepresidenta de política de contenido, Monika Bickert, ha señalado cuatro retos a los que se enfrenta el sector en relación a la regulación de las comunicaciones que se realizan en Internet:

  • la variación en los entornos legales y las normas de publicación de contenidos,
  • el desarrollo siempre cambiante de la tecnología y de la publicación de contenidos, reconociendo que la aplicación de la ley “siempre será imperfecta”
  • las empresas son intermediarias, en lugar de editores de contenido,

El último punto es el que más interés despierta, pues muchas de las compañías tecnológicas más grandes del mundo insisten, – y lo han hecho en numerosas ocasiones -, que son plataformas de contenido que se ponen al servicio del usuario y no editoriales, encargadas de fijar los temas de agenda.

Esta visión se recoge en el documento, donde se reafirma que “la capacidad de las personas para comunicarse sin intervención periodística ha sido fundamental para el crecimiento y el impacto positivo de Internet” e insisten en que “imponer la responsabilidad editorial tradicional reduciría seriamente ese impacto, al limitar la capacidad de las personas para hablar. Los expertos legales han advertido que responsabilizar a las compañías de Internet por el discurso de sus usuarios podría llevar al final de estos servicios por completo “.

Facebook se cuestiona cuatro puntos claves con respecto a la regulación de contenido en línea:

  • ¿Cómo puede la regulación de contenido alcanzar un equilibrio coherente entre reducir el daño ocasionado por cierto tipo de publicaciones y preservar la libertad de expresión?
  • ¿Cómo pueden las regulaciones mejorar la responsabilidad de las plataformas de internet?
  • ¿Debería la regulación exigir que las compañías de internet cumplan ciertos objetivos en materia de contenido?
  • ¿Debería la regulación definir qué contenido dañino debería prohibirse en Internet?

En este sentido, el documento técnico de Facebook recuerda que “las empresas que adopten una visión a largo plazo de sus incentivos comerciales probablemente encontrarán que las reacciones públicas a sus esfuerzos de transparencia, incluso si a veces son dolorosas, pueden llevarlos a invertir en formas que mejorarán la confianza del público y del gobierno a largo plazo”.

Partiendo de esta idea, una posible solución a la regulación de contenido online que mejore la rendición de cuentas sería una mayor transparencia en asuntos como los informes públicos requeridos por las autoridades a las empresas tecnológicas, más aún, tras la postura positiva de Facebook ante este planteamiento con más regulación en esta área.

A su vez, la compañía Facebook se define como una intermediaria de opiniones y plantea los problemas que le surgen a la hora de moderar que contenidos son definidos como nocivos y cuales no, es decir, donde establecer la línea de lo publicable en una plataforma como Facebook, en la que se presentan diariamente una gran cantidad de casos y donde se requiere de enorme rapidez en el tiempo de respuesta.

Con ese fin, el informe plantea que es necesario buscar flexibilidad. A medida que el lenguaje de Internet ha evolucionado con el tiempo, también lo hacen las expresiones de discurso de odio.

De hecho, las compañías de redes sociales están tomando varias medidas para mitigar algunos de los daños. El año pasado, Instagram emprendió pruebas de ocultar los “me gusta”, mientras que Twitter ha decidido cambiar su política relativa a la manipulación de medios, que incluyen las Fake News, los vídeos falsos y otros formatos y la propia Facebook, está utilizando inteligencia artificial para combatir las noticias falsas y el acoso escolar.

Comparte este artículo:

Dejar respuesta