Cada año, el Centro Nacional sobre Explotación Sexual (NCOSE), una destacada organización sin ánimo de lucro que expone los vínculos entre todas las formas de abuso y explotación sexual, publica la Lista de la Docena Sucia. En ella se identifican 12 “contribuyentes principales” que, según ellos, facilitan, permiten o se benefician de los abusos y la explotación sexuales.
Aquí están los colaboradores, con extractos escritos por NCOSE, en la lista de este año.
OUR Rescue no participó en su publicación.
- Manzana
“Un reciente artículo del Wall Street Journal informaba de un fallo en los controles parentales de Apple que permitía que el dispositivo de un niño eludiera fácilmente las restricciones de la web y accediera a pornografía, imágenes violentas y contenido de drogas.”
- Aplicación Cash
“El anonimato, la capacidad de transferencia rápida y la falta de verificación significativa de la edad y la identidad permiten que las transacciones ilegales se enconen”.
Actualización: “Tras ser incluida en la Lista de la Docena Sucia de 2024, Cash App está contratando a un Director del Programa contra la Explotación Humana y los Delitos Financieros”.
- Artículo 230 de la Ley de Decencia de la Comunidad
“Lo que antes parecía un apuntalamiento legislativo necesario para que prosperaran los negocios en línea, ahora se erige como el mayor opus para proteger a las empresas tecnológicas de toda responsabilidad, especialmente cuando se trata de la proliferación de la explotación sexual.”
- Cloudflare
“Entre el 10 y el 20% de los hombres estadounidenses han comprado a alguien para utilizarlo con fines sexuales. Y la empresa tecnológica Cloudflare proporciona la infraestructura de Internet a algunos de los sitios de prostitución más prolíficos, muchos de los cuales han sido objeto de críticas por tráfico sexual.”
- Discordia
“NCOSE recomienda que Discord prohíba a los menores utilizar la plataforma hasta que se transforme radicalmente. Discord también debería considerar la prohibición de la pornografía hasta que se pueda implementar una verificación sustantiva de la edad y el consentimiento para el material sexualmente explícito.”
“LinkedIn tiene un gran problema con el acoso sexual, ya que según una encuesta el 91% de las mujeres recibieron insinuaciones románticas o sexuales en LinkedIn”.
Actualización: “Después de que el Daily Mail publicara un artículo sobre la inclusión de LinkedIn en la Lista de la Docena Sucia por permitir la promoción de “aplicaciones desnudadoras” utilizadas para crear pornografía deepfake, LinkedIn eliminó de la plataforma los anuncios y artículos de bots desnudadores.“
- Meta
“Desde octubre de 2023, los Fiscales Generales de los 50 estados han tomado medidas para exigir responsabilidades a Meta. 42 estados han emprendido acciones legales para demandar a Meta con 12 demandas por perpetuar el daño a menores”.
- GitHub de Microsoft
“GitHub alberga códigos y conjuntos de datos utilizados para crear CSAM generados por IA, que experimentaron una explosión de crecimiento sin precedentes en 2023: pasaron de ser una amenaza teórica a una amenaza muy real e inminente en todo el mundo.”
“Las políticas de Reddit -incluida una nueva política que aclara los casos de abuso sexual basado en imágenes (a veces denominado “porno de venganza”) y la seguridad de los menores-, aunque bonitas sobre el papel, no se han traducido en la práctica en la prevención proactiva y la eliminación de estos abusos.”
- Roblox
“Roblox debe hacer que la plataforma sea segura por defecto y por diseño, en lugar de hacer recaer continuamente más carga sobre los padres -y los propios niños pequeños- para que intenten controlar una plataforma con más de 50 millones de juegos.”
- Spotify
“Aunque Spotify actualizó sus políticas en octubre de 2023 para prohibir “dirigirse repetidamente a un menor para avergonzarlo o intimidarlo” y “compartir o volver a compartir contenido íntimo no consentido, así como amenazas de distribuir o exponer dicho contenido”, las palabras sobre el papel no significan nada si no se aplican.”
- Telegrama
“Las políticas manifiestamente inadecuadas y/o inexistentes de Telegram, junto con la negativa inflexible a moderar el contenido, facilitan y exacerban directamente el abuso y la explotación sexual en la plataforma.”
Consulta la lista para saber cómo se descubrió que cada uno de estos contribuyentes principales facilitaba, permitía o se beneficiaba del abuso y la explotación sexuales. También puedes obtener más información sobre el NCOSE visitando su sitio web.