https://static.ellitoral.com/img/logo-litoral.png El Litoral
El Litoral
Martes 23.10.2018 - Última actualización - 10:01
9:55

Redes sociales

Ver lo que otros "no deben" ver: ¿cómo es el trauma de vivir siendo moderador de contenidos?

El trabajo de los moderadores de contenidos en redes sociales puede llevar a una persona a sufrir problemas en su salud mental. Violaciones, decapitaciones, violencia... ¿cómo se vive trabajando viendo lo que otros "no deben" ver?

Revelador. En nuestro navegar cotidiano por la red, ignoramos que son los moderadores de contenido quienes se llevan la peor parte. Foto: Gizmodo en Español.




Redes sociales Ver lo que otros "no deben" ver: ¿cómo es el trauma de vivir siendo moderador de contenidos? El trabajo de los moderadores de contenidos en redes sociales puede llevar a una persona a sufrir problemas en su salud mental. Violaciones, decapitaciones, violencia... ¿cómo se vive trabajando viendo lo que otros "no deben" ver? El trabajo de los moderadores de contenidos en redes sociales puede llevar a una persona a sufrir problemas en su salud mental. Violaciones, decapitaciones, violencia... ¿cómo se vive trabajando viendo lo que otros "no deben" ver?

El Litoral


Roz Bowden vivió una traumática experiencia cuando trabajó como moderadora de contenidos en MySpace. Su labor, consistía en ver las imágenes y videos que los usuarios "no deben mirar", tales como violaciones sexuales a niños, decapitaciones, torturas y asesinatos.

 

Eso que "denunciamos" por violento, por "contenido inapropiado", ese lado oscuro de Internet, es lo que Bowden y sus compañeros debían ver con detenimiento para discernir si se eliminaba el contenido del sitio o no. 

 

Llámese MySpace, Facebook, Twitter, Instagram o cualquier otro sitio de Internet. El trabajo de los moderadores es una tortura.

 

En una entrevista con la BBC de Londres, Roz Bowden detalló su experiencia mientras trabajó para MySpace -entre el 2005 y el 2008- cuando era el auge de esta red social, antes del boom de Facebook.

 

El informe fue realizado por la corresponsal de Tecnología, Jane Wakefield.

 

"Cuando me fui, no estreché la mano a nadie durante tres años. Vi lo que la gente es capaz de hacer y lo repugnante que es. No quería tocar a nadie. Aborrecía a la humanidad".

 

Así de fuerte comienza Bowden, que relató lo agotador que fue para ella y debe ser en la actualidad, para los 7.500 moderadores que, por ejemplo, tiene la red social con más usuarios en el mundo: Facebook.

 

Para que Facebook sea un espacio agradable por donde navegar

 

La empresa de Mark Zuckerberg tiene 7.500 moderadores de contenido que trabajan en todo el mundo 24 horas al día. 

 

Estas personas suelen ver imágenes y videos con contenido violento y perturbador, desde abusos sexuales a niños hasta decapitaciones, torturas, violaciones o asesinatos.

 

Una de esas personas acaba de demandar a la red social por el trauma psicológico que sufrió tras ver miles de horas de contenido tóxico y molesto.

 

Selena Scola dice que Facebook y Pro Unlimited, la firma que le contrató para trabajar en la red social, fallaron a la hora de garantizar su salud emocional.

 

 

La mujer asegura que tiene trastorno de estrés postraumático como resultado de las cosas que ha visto en línea.

 

Es probable que el caso arroje una luz sobre el oscuro mundo de la moderación de contenido en internet y plantee interrogantes sobre si la gente debería hacer ese tipo de trabajo.

 

 

 

Salud mental

 

Sarah Roberts, una profesora de la Universidad de California que estudió la moderación de contenido durante los últimos ocho años, cree que las redes sociales pueden desencadenar una crisis de salud mental.

 

"No hay informes publicados que observen las repercusiones a largo plazo de ese trabajo", le contó la profesional a la BBC.

 

"Estamos hablando de un gran número de personas -que está creciendo exponencialmente- y debería preocuparnos lo que pueda pasar en el futuro", agregó.

 

"No hay un plan de apoyo a largo plazo que ayude a esos moderadores de contenido cuando dejan el trabajo. Se espera que se reincorporen sin más al tejido social", dijo.

 

 

 

"No vomiten, desenfoquen la mirada"


Roz Bowden trabajó en finanzas antes de aceptar el empleo en MySpace entre 2005 y 2008. Le agradó volver a su anterior sector laboral cuando el trabajo en la red social se convirtió en una carga excesiva para ella.

 

"Ahora solo analizo números", dijo en una conferencia que brindó en el 2017.

 

Pero a menudo se pregunta qué pasó con el equipo al que ella ayudó a formar y supervisar durante los primeros días de la red social. 

 

"¿Qué les sucedió a todas esas personas que miraban cabezas explotando en mitad de la noche? Es importante saberlo", dijo.

 

Y reveló: "Tuvimos que establecer unas normas. ¿Ver pornografía y preguntarle a una chica si usa un bikini de tiras de espagueti era adecuado? ¿Cuánto sexo era demasiado para una plataforma como MySpace? Nos hacíamos esas preguntas a medida que avanzábamos".

 

"¿Deberíamos permitir un video de una persona decapitando a otra? No. Pero, ¿y si se trata de dibujos animados? ¿Está bien si lo hacen Tom y Jerry?", reflexionó.

 

Bowden dijo en aquella ocasión que tampoco había nada de apoyo moral. 

 

Por duro que parezca, ella le decía a su equipo: "Está bien que se vayan. Está bien que lloren. Pero no vomiten en el piso".

 

Al momento de mirar el contenido, les aconsejaba: "Desenfoquen la mirada para no verlo del todo".

 

 

 

Para Facebook, los moderadores son "héroes"

 

En un post publicado en su blog el año pasado, Facebook describió a sus moderadores de contenido como "los héroes no reconocidos que mantienen Facebook a salvo para el resto de nosotros".

 

Sin embargo, admitió que ese trabajo "no es para todo el mundo" y que solo contrata a gente "que sea capaz de manejar los retos inevitables que presenta ese rol".

 

 

 

¿Cómo capacitar a una persona para ejercer como moderador de contenidos?

 

En el caso de Facebook, la empresa les ofrece una capacitación previa en la que se les explica lo que se espera de ellos en el trabajo y pasan al menos 80 horas con un instructor antes de que se lancen al mundo real, explicó BBC en su informe.

 

También contrata a psicólogos clínicos: todos los que revisan contenido tienen acceso a recursos de salud mental.
Peter Friedman es el director de LiveWorld, una firma que ha proporcionado moderadores de contenido a empresas como AOL, eBay y Apple en los últimos 20 años.

 

Pero el especialista le dijo a BBC que sus empleados raramente -o tal vez nunca- han usado las terapias que les ofrecen.

 

"Es una condición del trabajo el que puedan manejar eso y no quieren que su jefe sepa que no pueden", reveló.

 

"Los trabajadores sienten que pueden ser estigmatizados si hacen uso de esos servicios".

 

Por su parte, Facebook reconoció que revisar el contenido a la escala que lo hace ahora es un "territorio inexplorado".

 

"Hasta cierto punto, tenemos que resolverlo a medida que avanzados", dijeron los responsables de la red social en su blog.

 


Además tenés que leer:



Más Noticias de Internet y Tecnología

Lo más visto
Lunes feriado a puro sol en la ciudad -  -
Área Metropolitana
Una vejez placentera: el sexo y el amor después de los 60 - Oportunidades. De acuerdo a la nueva concepción de la ancianidad, los adultos mayores tienen tantas posibilidades de realizar cosas y de disfrutar momentos como en otras etapas de sus vidas. Es cuestión de aceptar el desafío y animarse a lograrlo.  -
Área Metropolitana
Video: el momento en el que hallaron al ARA San Juan -  -

Recomendadas