Fuente: Trikooba.org

Un tribunal de Kenia dictaminó recientemente que un caso contra la empresa matriz de Facebook, Meta, presentado por un ex moderador de Facebook, Daniel Motaung, por presunta explotación y un ambiente de trabajo tóxico en su oficina de Nairobi puede avanzar, sentando un precedente para las compañías tecnológicas que han tratado de evadir las repercusiones legales en los tribunales locales alegando falta de jurisdicción. Motaung también demandó a Meta Platforms Ireland Limited y a su agente de subcontratación local, Samasource Kenya EPZ Limited.

En su demanda presentada ante el Tribunal de Empleo y Relaciones Laborales de Kenia el año pasado, Motaung y otros 12 ex empleados afirman que sufrieron lesiones psicológicas por la exposición repetida a contenido violento gráfico extremadamente perturbador junto con un ambiente de trabajo tóxico.

A través de su abogado, Meta había argumentado que Meta Platforms, Inc. y Facebook son corporaciones extranjeras y no son residentes ni comercian en Kenia, por lo que no estaban bajo la jurisdicción del país. Sin embargo, el Tribunal de Empleo y Relaciones Laborales dictaminó el 6 de febrero que Meta puede ser demandado en Kenia. Será la primera vez que una demanda contra un gigante tecnológico global proceda a una audiencia, no solo fuera de Occidente, sino en África, donde ocurrió el delito.

Esta decisión judicial podría abrir las compuertas para que otras compañías de tecnología sean demandadas en Kenia y otros países. Esto podría incluir OpenAI que, según una exposición reciente de la revista Times, pagó a los trabajadores kenianos menos de USD 2 para entrenar la inteligencia artificial, a menudo requiriendo que revisen material explícito y traumático.

Los daños de la moderación de contenido

La moderación de contenido, el proceso de revisar publicaciones, fotos y videos en redes sociales para determinar si el contenido viola las políticas de una plataforma, ha sido objeto de un mayor escrutinio en los últimos años a medida que el impacto en la salud mental de los trabajadores se ha vuelto más claro.

A pesar de que la moderación de contenido es una función central de cualquier sitio de redes sociales, Facebook elige no emplear directamente a las 15,000 personas que hacen su moderación de contenido. En su lugar, opta por externalizar esta función de seguridad crítica a contratistas externos como Genpeen India, Cognizant en los EE.UU., Covalen y Accenture en Irlanda, y – hasta hace poco – Sama Source en Kenia.

Las historias de los moderadores de contenido contratados por estos contratistas de Facebook son todas inquietantemente similares: están sujetos a horas prolongadas de exposición a contenido repulsivo, se les da poco o ningún apoyo para contrarrestar o lidiar con el daño de la exposición a dicho contenido, se les paga injustamente y se les amordaza con acuerdos de confidencialidad. Tras el caso de mayo de 2020 en el que Meta pagó USD 52 millones en un acuerdo a más de 11,000 moderadores de contenido en los Estados Unidos por problemas de salud mental desarrollados mientras estaba en el trabajo, la compañía mejoró las condiciones de trabajo de algunos moderadores en los Estados Unidos. No replicaron esto con otros en el extranjero.

Según Nanjira Sambuli, investigadora y analista de políticas de Kenia, África se convirtió en el siguiente mejor destino para la exportación de moderación de contenido y, con ello, los efectos secundarios.

Odanga Madung, investigador de Mozilla, periodista de datos independiente y cofundador de Odipo Dev, dice que Motaung tiene un caso sólido. Como le dijo a Global Voices, siguiendo únicamente las demandas anteriores de moderación de contenido, es probable que Meta llegue a un acuerdo extrajudicial.

Si este caso va a una audiencia completa, lo más probable es que exponga las complejidades dentro de Facebook. El público tendrá acceso a sus prácticas de moderación de contenido. Lo que hace que permitan que el contenido permanezca o sea eliminado y, al hacerlo, abrirlos a otras suites o a un mayor escrutinio.

Odanga se refería al acuerdo de mayo de 2020.

«Hemos evitado un precedente muy peligroso»

Pero donde Meta vio una sabana digital en Nairobi con su fuerza laboral joven y conocedora de la tecnología que podría ser explotada con prácticas laborales inaceptables, estaban ciegos o se volvieron ignorantes del sistema judicial del país. En octubre de 2021, el tribunal superior de Kenia emitió otro fallo histórico contra Uber por violar contratos con conductores en Kenia. Al igual que Meta, Uber intentó y fracasó utilizando el mismo argumento de no estar domiciliado en Kenia. Durante años, sus conductores lucharon para demostrar que Uber Kenya Limited y Uber BV eran realmente la misma compañía. Finalmente, ganaron.

Odanga explicó:

Este fallo es un gran problema para nosotros que estamos en el espacio de responsabilidad de la plataforma, especialmente dado el reciente intento de Facebook y Meta de omitir la responsabilidad al decir que no están domiciliados en el país. El hecho de que pudieran eludir la responsabilidad de cualquier tipo de daño que causarían a los ciudadanos de otro país ha sido preocupante.

Como miembro de Mozilla, Odanga ha estado exponiendo la industria de la desinformación que ha estado prosperando en Kenia utilizando informes basados en investigaciones y presionando a las plataformas de redes sociales para que sean más responsables.

Hablando sobre por qué el fallo fue tan importante y de su importancia, dijo: «Creo que hemos evitado un precedente muy peligroso al tener tal decisión hecha dentro de nuestros tribunales».

El efecto mariposa

Odanga habló sobre el efecto mariposa que este reciente fallo tendrá para muchas personas en la industria como él, pero lo más importante para los usuarios de Facebook y los activistas de derechos digitales que han sido víctimas de sus prácticas opacas de moderación de contenido.

Esto incluye a dos investigadores etíopes que, junto con el grupo de derechos humanos keniano Katiba Institute, están demandando a Meta por USD 1.6 mil millones por permitir que el contenido de odio florezca en su plataforma y alimente la violencia étnica etíope.

Mientras hablaba con periodistas en Nairobi a través de un enlace de video tras el fallo de Motaung contra Meta, sobre el papel que FoxGlove, una organización sin fines de lucro de Tech Justice estaba desempeñando en los dos casos, uno de sus cofundadores y directores, Cori Crider, habló sobre la importancia de los dos casos y cómo la moderación de contenido (o la falta de ella en el caso de los etíopes) estaba en el corazón de ambos.

Como señaló, ambos casos surgieron de lo que sucedió en el mismo centro de moderación de contenido de Nairobi en Sama Source.

La información revelada por un ex empleado de Meta a FoxGlove reveló que el 87 por ciento del presupuesto de desinformación de Facebook se asigna a los Estados Unidos de habla inglesa. El presupuesto restante es el que comparte el resto del mundo.

A pesar de la importancia de la región subsahariana, Meta no ha invertido en estos millones, dijo.

Como explicó Crider, esta falta de asignación de un presupuesto proporcional para la moderación de contenido es lo que creó los niveles de personal insostenibles que los llevaron a permitir que florecieran publicaciones violentas y odiosas de Etiopía, inflamando la sangrienta guerra civil del país. También es lo que llevó a la explotación de los moderadores de contenido y las condiciones de trabajo que, en el caso de Motaung y sus colegas, causaron trauma psicológico y trastorno de estrés postraumático, agregó.

De los derechos humanos a un argumento económico

El desempleo juvenil es una verdadera crisis en África. Según Statista, la tasa en Kenia aumentó en 0,3 puntos porcentuales en 2021 en comparación con el año anterior. Según los últimos datos, la tasa de desempleo juvenil de Kenia alcanzó un máximo del 13,84 por ciento en 2021.

La falta de políticas que gobiernen la creciente economía gig de Kenia amenaza con convertir a sus jóvenes con conocimientos digitales en esclavos digitales a medida que los crecientes casos de explotación de grandes tecnológicas continúan llegando a los titulares. Odanga también habló de un temor real entre sus colegas investigadores, defensores kenianos de los derechos humanos y digitales, de que la clase política pudiera convertir rápidamente esto de los derechos humanos en un argumento económico, y al hacerlo, abdicar de su papel de formulación de políticas que las leyes laborales extienden incluso al espacio digital.

Donde Crider ve los dos casos como una oportunidad para restablecer la relación entre democracias importantes como Kenia (y la región) y algunas de las compañías tecnológicas más grandes y poderosas que el mundo haya visto, Nanjira advierte que estas oportunidades no se realizarán plenamente a menos que «los responsables políticos africanos establezcan barreras de seguridad sobre cómo se regula la economía gig en el continente».

Envía tu comentario

Subscribe
Notify of
guest
1 Comentario
Más antiguos
Recientes
Inline Feedbacks
Ver todos los comentarios

Últimas