Seleccione el país y el idioma

Abuso infantil, violencia, agresión: ¿No se preocupa Facebook de sus moderadores de contenidos?

abuso infantil violencia agresion no se preocupa facebook de sus moderadores de contenidos
PA

Las recientes revelaciones han dejado al descubierto la continua negligencia de Facebook con respecto a los moderadores de contenidos contratados en todo el mundo. Mientras se promulga el proyecto de ley de seguridad en línea y otras leyes, pedimos a los legisladores de todo el mundo que aprovechen esta oportunidad de oro y establezcan unas normas mínimas sobre la forma en que las empresas de medios sociales moderan los contenidos perjudiciales, de forma que se respeten y defiendan los derechos de sus trabajadores.

En 2019, la empresa de Mark Zuckerberg recurrió a Sama, un subcontratista con sede en Estados Unidos, para que fuera su principal socio de moderación de contenidos en toda África. Sama apoya principalmente los servicios de datos para las empresas de la lista Fortune 50, pero promueve en gran medida su misión social de sacar a las personas marginadas de la pobreza dando un trabajo "digno".

Pero, en realidad, los periodistas descubrieron que Sama utilizaba a estos trabajadores para filtrar miles de horas de asesinatos, violaciones, suicidios, abusos sexuales a menores y otros contenidos gráficos, sin una remuneración razonable, ni formación, ni apoyo emocional.

Este tipo de problemas no son nuevos para Facebook. Una y otra vez, las prácticas de moderación de contenidos de la empresa han dado lugar a diagnósticos de TEPT, e incluso a intentos de suicidio. El trauma de los moderadores de contenidos que trabajan para los contratistas de Facebook está bien documentado, desde Accenture en Phoenix (EE.UU.) hasta Cognizant en Hyderabad (India) y Arvato en Berlín (Alemania).

"Hacer la moderación de contenidos de Facebook mientras se trabaja fue emocional y mentalmente devastador", dijo Daniel Motaung, ex moderador de contenidos de Facebook en Sama's Nairobi. "Entré bien y salí mal. Cambió la persona que era".

Y no es sólo la violencia y el discurso del odio: la democracia también está en peligro. En 2020 Facebook se comprometió a proporcionar recursos adicionales para mejorar la moderación de contenidos de desinformación electoral en África. "Apoyar las elecciones en toda África sigue siendo una prioridad, y hemos dedicado recursos sin precedentes tanto a nivel local como global, con la protección de la integridad electoral en el centro de este trabajo", dijo Akua Gyekye, gerente de políticas públicas de la compañía para las elecciones en África.

Pero un estudio realizado por el Proyecto Anti-Desinformación de las Elecciones de Sudáfrica 2021 descubrió que Facebook no cumplió esta promesa. La empresa no hizo prácticamente nada para proteger las elecciones sudafricanas de noviembre de 2021 de los peligros causados por la desinformación electoral. ¿Es este otro impacto de las malas condiciones de trabajo en su oficina de moderación en África? Creemos que sí.

Lo que está en juego con los fallos en la moderación de contenidos es muy importante, e incluso se ha demostrado que son mortales. El conflicto en Etiopía ha provocado miles de muertos y más de 2 millones de desplazados en 2021.

Por eso hoy, tras años de inacción, escribimos para pedir que los directores generales de Meta y sus contratistas rindan cuentas. He aquí cómo:
En primer lugar, los legisladores de todo el mundo deberían reforzar la transparencia mediante la inclusión de auditorías públicas obligatorias de las cadenas de suministro de moderadores de contenidos de las redes sociales en la legislación, como el proyecto de ley de seguridad en línea y la recientemente introducida Ley de Supervisión y Seguridad de los Servicios Digitales (DSOSA) en Estados Unidos. La regulación que pretende mejorar la seguridad en línea debe hacerlo tanto para los moderadores de contenidos como para cualquier otra persona.

En segundo lugar, las plataformas deben absorber los costes de lo que supone mantener su plataforma segura. Esto significa garantizar que los moderadores de contenidos sólo revisen los contenidos perjudiciales durante un periodo limitado cada día, pagar a los moderadores adecuadamente por su intenso trabajo, ofrecer atención médica y psiquiátrica real a los moderadores actuales y antiguos, y respetar sus derechos laborales internacionales. Todas las demás industrias están obligadas a hacer que sus servicios sean seguros, aunque eso tenga un coste. Facebook y similares no deberían ser diferentes.
En tercer lugar, Facebook debe hacer públicas sus auditorías no redactadas de Sama, o explicar por qué si no existen. También debe hacer pública su lista completa de socios moderadores de contenidos, para que las organizaciones de derechos humanos puedan examinar adecuadamente sus prácticas.

Por último, los legisladores de todo el mundo deberían proteger a los denunciantes que se presentaron, expresando su apoyo directamente y comprometiéndose a utilizar toda la fuerza de la ley y la atención pública para evitar que sufran represalias, así como sus medios de vida y sus familias. Esta fue una de las principales recomendaciones del Proyecto de Ley de Seguridad en Línea (Comité Mixto), que el gobierno ha aceptado, comprometiéndose a modificar la Orden de Divulgación de Interés Público (Personas Prescritas) de 2014, para garantizar la protección de los denunciantes que informan a Ofcom sobre infracciones de seguridad en línea.
Debemos salvaguardar a estos valientes trabajadores que dan la cara, y debemos garantizar que sus revelaciones tengan un impacto positivo en las prácticas de moderación de contenidos en todo el mundo. Nuestro futuro depende de ello.

Damian Collins es diputado conservador por Folkestone y Hythe; Sean Casten es diputado demócrata por el distrito 6 de Illinois; Phumzile van Damme es ex diputada de la Alianza Democrática en la Asamblea Nacional de Sudáfrica.

Escrito por Damian Collins a través de Independent Abril 14th 2022

Stop Child Abuse

Hay muchas maneras de participar y marcar la diferencia para prevenir el abuso infantil. Pasa a la acción y elige lo que más te convenga.

Publish modules to the "offcanvs" position.