Portuguese / Spanish / English

Oriente Medio cerca de usted

El "doble rasero" de Facebook sobre la incitación al odio contra los rusos

En esta ilustración fotográfica, el logotipo de Meta aparece en la pantalla de un iPhone frente a un logotipo de Facebook el 29 de octubre de 2021 [Chesnot/Getty Images].

La decisión de Facebook de permitir la incitación al odio contra los rusos debido a la guerra en Ucrania rompe sus propias normas sobre la incitación, y muestra un "doble rasero" que podría perjudicar a los usuarios atrapados en otros conflictos, dijeron expertos en derechos digitales y activistas.

El propietario de Facebook, Meta Platforms, permitirá temporalmente a los usuarios de Facebook e Instagram de algunos países llamar a la violencia contra los rusos y los soldados rusos en el contexto de la invasión de Ucrania, informó Reuters la semana pasada.

También permitirá alabar a un batallón de derecha "estrictamente en el contexto de la defensa de Ucrania", en una decisión que, según los expertos, demuestra la parcialidad de la plataforma.

La medida representa un doble rasero "flagrante" si se compara con la incapacidad de Meta para frenar el discurso de odio en otras zonas de guerra, dijo Marwa Fatafta, del grupo de derechos digitales Access Now.

"La disparidad de medidas en comparación con Palestina, Siria o cualquier otro conflicto no occidental refuerza que la desigualdad y la discriminación de las plataformas tecnológicas es una característica, no un error", dijo Fatafta, responsable de políticas para Oriente Medio y el Norte de África.

LEER: Más de 500 empleados de Google apoyan a un compañero que se opone a un contrato militar con Israel

"Las plataformas tecnológicas tienen la responsabilidad de proteger la seguridad de sus usuarios, defender la libertad de expresión y respetar los derechos humanos. Pero esto nos lleva a preguntarnos: ¿la seguridad de quién y la libertad de expresión de quién? ¿Por qué no se extendieron estas medidas a otros usuarios?", añadió.

El año pasado, cientos de publicaciones de palestinos que protestaban por los desalojos de Jerusalén Este fueron eliminadas por Instagram y Twitter, que posteriormente culparon a errores técnicos. Los grupos de derechos digitales criticaron la censura e instaron a una mayor transparencia sobre cómo se establecen las políticas de moderación y cómo se aplican en última instancia.

¿UNA POLÍTICA PARA TODOS?

Facebook ha sido objeto de críticas por no frenar la incitación en conflictos desde Etiopía hasta Myanmar, donde los investigadores de Naciones Unidas dicen que jugó un papel clave en la difusión de discursos de odio que alimentaron la violencia contra los musulmanes rohingya.

"Bajo ninguna circunstancia es aceptable promover la violencia y el discurso de odio en las plataformas de las redes sociales, ya que podría perjudicar a personas inocentes", dijo Nay San Lwin, cofundador del grupo de defensa Free Rohingya Coalition, que se ha enfrentado a abusos en Facebook.

"Meta debe tener una política estricta sobre la incitación al odio, independientemente del país y de la situación; no creo que sea aceptable decidir si se permite promover el odio o las llamadas a la violencia caso por caso", declaró a la Fundación Thomson Reuters.

El escrutinio sobre la forma en que aborda los abusos en sus plataformas se intensificó después de que la denunciante Frances Haugen filtrara documentos que mostraban los problemas que encuentra Facebook para vigilar los contenidos en los países que suponen un mayor riesgo para los usuarios.

VIDEO: La CIA torturó a un detenido del 11-S para enseñar técnicas de interrogatorio

En diciembre, los refugiados rohingya presentaron una demanda colectiva de 150.000 millones de dólares en California, argumentando que la incapacidad de Facebook para vigilar los contenidos y el diseño de su plataforma contribuyeron a la violencia contra el grupo minoritario en 2017.

Meta dijo recientemente que "evaluaría la viabilidad" de encargar una evaluación independiente de los derechos humanos en su trabajo en Etiopía, después de que su junta de supervisión recomendara una revisión.

EXCEPCIÓN DE UCRANIA

En un informe del miércoles, Human Rights Watch dijo que las empresas tecnológicas deben demostrar que sus acciones en Ucrania son "procesalmente justas" y evitar cualquier "decisión arbitraria, sesgada o selectiva", basándose en procesos claros, establecidos y transparentes.

En el caso de Ucrania, Meta dijo que hablantes nativos de ruso y ucraniano estaban monitoreando la plataforma las 24 horas del día, y que el cambio temporal en la política era para permitir formas de expresión política que "normalmente violarían" sus reglas.

"Esta es una decisión temporal tomada en circunstancias extraordinarias y sin precedentes", dijo Nick Clegg, presidente de asuntos globales de Meta, en un tuit, añadiendo que la compañía estaba centrada en "proteger los derechos de expresión de la gente" en Ucrania.

Rusia ha bloqueado Facebook, Instagram y Twitter.

LEER: El archivo personal del jefe de espionaje israelí se filtra en las redes sociales

Y la nueva táctica de Meta pone de manifiesto lo difícil que es redactar normas que funcionen universalmente, dijo Michael Caster, director del programa digital para Asia de la organización de derechos humanos Article 19.

"Si bien es de esperar que las políticas de una empresa mundial cambien ligeramente de un país a otro, en función de las evaluaciones de impacto sobre los derechos humanos que se realicen, también es necesario que haya cierto grado de transparencia, coherencia y responsabilidad", afirmó.

"En última instancia, las decisiones de Meta deben estar condicionadas por sus expectativas en virtud de los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos, y no por lo que resulte más económico o logístico para la empresa", dijo en comentarios enviados por correo electrónico.

DECISIÓN UNILATERAL

Para Wahhab Hassoo, activista yazidí que ha hecho campaña para que las empresas de redes sociales rindan cuentas por no actuar contra los miembros de Daesh que utilizan sus plataformas para comerciar con mujeres y niñas yazidíes, las medidas de Facebook son muy preocupantes.

La familia de Hassoo tuvo que pagar 80.000 dólares para comprar la liberación de su sobrina de los yihadistas, que la secuestraron en 2014 y luego la ofrecieron "en venta" en un grupo de WhatsApp.

"Estoy sorprendido", dijo Hassoo, de 26 años, sobre la decisión de Meta de permitir el discurso de odio contra los rusos.

"Cuando pueden tomar ciertas decisiones de forma unilateral, básicamente pueden promover la propaganda, el discurso de odio, la violencia sexual, la trata de personas, la esclavitud y otras formas de contenido relacionado con el abuso humano, o impedirlo", ha dicho.

"Todavía falta la última parte"

Hassoo y otros activistas yazidíes elaboraron un informe en el que instaban a Estados Unidos y a otras naciones a investigar el papel que las plataformas de medios sociales, entre ellas Facebook y YouTube, desempeñaron en los crímenes contra su comunidad minoritaria yazidí.

Las acciones de Meta en Ucrania confirman lo que su investigación mostró, dijo Hassoo, que se reasentó en los Países Bajos en 2012.

"Pueden promover o prohibir lo que les interesa y lo que les parece importante", dijo Hassoo. "No es justo que una empresa pueda decidir lo que es bueno y lo que no".

Las opiniones expresadas en este artículo pertenecen al autor y no reflejan necesariamente la política editorial de Monitor de Oriente.

Categorías
ArtículosArtículos de OpiniónFacebookIsraelRusia
Show Comments
Show Comments

Mantente actualizad@

Subscríbete para recibir nuestros boletines