Hay personas que están comprometidas a moderar porno en lugares como Chatportbate. Y algunos requieren trauma psicológico – Desde dentro
Cuando hablamos de sitios de contenido para adultos, Chartbate no solo tiene uno de los nombres más llamativos, sino

Cuando hablamos de sitios de contenido para adultos, Chartbate no solo tiene uno de los nombres más llamativos, sino también una de las cámaras web gratuitas más populares del mundo. Hoy Son noticias Porque uno de sus moderadores ha demandado a la compañía. La razón: sufrir de estrés postraumático.
El caso. Neal Barber fue descontinuado en 2020 por Bayside Support Services y Multi Media LLC, la compañía que Chautbate tiene como «supervisor para el servicio al cliente» (moderador). Su trabajo es verificar el contenido publicado y asegurarse de que corresponda a la legalidad. El 22 de julio, Barber presentó una demanda en la que aseguró que estaba expuesto a «contenido extremo, violento, gráfico y sexualmente explícito» todos los días. Aunque solo Barber aparece en la queja por el momento, el caso abre la puerta a otros moderadores que han sido descontinuados en los últimos cuatro años para unirse.
Desprotegido. Los moderadores son la primera línea de defensa que detiene el contenido ilegal, que, después de exigir en Chaturbate, a menudo contiene «explotación de niños, no de consumo, violento, obsceno o autoharminas». Barber afirma que Chartbate no protege la salud mental de sus empleados, qué es, qué es Estándar del sector. En declaraciones a 404 promedioUn representante de Chautbate asegura que la compañía «aprecie profundamente el trabajo de sus moderadores y se comprometa a apoyar al equipo responsable de este trabajo fundamental», pero no dice cómo quieren hacerlo.
Consecuencias. Sin protección, el demandante desarrolló el síndrome de estrés postraumático y actualmente está siendo tratado. Según su abogado, «pesadillas animadas, distanciamiento emocional, ataques de pánico y otros síntomas que son compatibles con el trastorno de estrés postraumático». Y no es el único.
Peleas por años. Los moderadores de contenido fueron Quejarse de las condiciones de trabajoEspecialmente sobre los efectos que causa a nivel psicológico, y no hablamos de plataformas de contenido para adultos, aparece en las aplicaciones de contenido suave que vemos todos los días. Uno de los primeros casos Sucedió en 2017Cuando dos empleados del equipo de seguridad en línea de Microsoft alcanzaron el límite después de ver un video de violación y un asesinato posterior. En 2020 Un moderador condenó a YouTube Y en 2021 también Pasó en tiktok. Las razones se repiten: las plataformas no protegieron la salud mental de sus empleados. En este momento, Requisitos objetivo enfrentados en Kenia Y también En Barcelona para las consecuencias psicológicas y las malas condiciones de trabajo.
Soluciones. Ya hay protección para los moderadores, pero no todas las empresas los aplican. En la demanda, Chartbate está acusado de no tomar algunas prácticas estándar, como «filtros de contenido, descansos para fuentes, asesoramiento especializado o sistemas de apoyo entre colegas». Tampoco corresponden a otras prácticas habituales, como B. para silenciar videos sobre tonos de gris o la reproducción automática de los videos. Respectivamente Pasta de comprobaciónUna empresa dedicada a la moderación también puede ser una solución efectiva para reducir la exposición. Además de acelerar el trabajo y la integración de los sistemas de identificación avanzados, los moderadores pueden «concentrarse en casos más complejos y minimizar la exposición a materiales potencialmente dañinos».
En | Meta sigue los pasos de X: no solo trabajamos para usted, sino que ahora también te trabajaremos que te moderamos