Gracias por ser parte de nuestra audiencia Queremos que sigas disfrutando de los mejores contenidos. Regístrate aquí ¿Ya estás registrado? Inicia sesión
nytimesinternationalweekly - 02/12/19 - 06:00 AM

Imágenes de abuso sexual proliferan en Internet

La industria de la tecnología se ha vuelto más diligente en años recientes para identificar material de abuso sexual infantil en línea, con un récord de 45 millones de fotografías y videos reportados el año pasado.

La huella digital de imágenes de abuso sexual atormenta a víctimas. Foto/ Kholood Eid.
  • Michael H. Keller y Gabriel J.X. Dance

Las dos hermanas viven con el temor de ser reconocidas.

Hace 10 años, su padre hizo lo inconcebible: publicó fotografías y videos explícitos de ellas, en aquel entonces de apenas 7 y 11 años, en Internet. Muchos captaban agresiones violentas en su hogar en la región del Medio Oeste de Estados Unidos, que incluían al padre y a otro hombre drogando y violando a la niña de 7 años.

Los hombres están ahora en prisión, pero sus crímenes encuentran nuevos públicos. Tan sólo este año, fotografías y videos de las hermanas fueron hallados en más de 130 investigaciones sobre abuso sexual infantil que involucraron teléfonos móviles, computadoras y cuentas de almacenamiento en la nube.

La huella digital del abuso —que a menudo se almacena en Google Drive, Dropbox y Microsoft OneDrive— atormenta a las hermanas incesantemente, dicen, al igual que el temor de que un depredador las reconozca por las imágenes.

VEA TAMBIÉN: Brindan 15 minutos de oxígeno para tomar un respiro de la contaminación ambiental

Eso siempre está en mi cabeza —saber que esas fotografías están ahí afuera, dijo E., la hermana mayor, identificada por su primera inicial. Debido a la forma en que funciona Internet, eso no es algo que va a desaparecer.

Experiencias espantosas como la de ellas recirculan a través de Internet debido a que los motores de búsqueda, las redes sociales y el almacenamiento en la nube están plagados de oportunidades que pueden ser explotadas por los criminales.

La industria de la tecnología se ha vuelto más diligente en años recientes para identificar material de abuso sexual infantil en línea, con un récord de 45 millones de fotografías y videos reportados el año pasado. Pero la misma industria ha fallado de forma consistente para tomar medidas agresivas para evitar su propagación, descubrió una investigación de The New York Times. Las compañías cuentan con las herramientas técnicas para detener la recirculación de imágenes que contienen abuso, y sin embargo no las aprovechan al máximo.

Amazon, cuyos servicios de almacenamiento en la nube manejan millones de cargas y descargas cada segundo, ni siquiera busca esas imágenes. Apple no escanea su almacenamiento en la nube, de acuerdo con autoridades federales, y encripta su app de mensajería, lo que hace que la detección sea prácticamente imposible. Los productos para el consumidor de Dropbox, Google y Microsoft escanean en busca de imágenes ilegales, pero sólo cuando alguien las comparte, no cuando se suben.

Y otras compañías, entre ellas Snapchat y Yahoo, buscan fotografías, pero no videos.

Facebook, la red social más grande del mundo, escanea sus plataforma, representando más del 90 por ciento de las imágenes reportadas el año pasado, pero la compañía no usa todas las bases de datos disponibles para detectar el material. Y Facebook ha anunciado que la fuente principal de las imágenes, Facebook Messenger, con el tiempo será encriptada, lo que limitará enormemente la detección.

Cada compañía está en proceso de concebir su propio equilibrio de privacidad versus seguridad, y no quieren hacerlo en público, dijo Alex Stamos, quien fungió como director de seguridad de información tanto en Facebook como en Yahoo. Estas decisiones de hecho tienen un impacto descomunal en la seguridad de los niños.

VEA TAMBIÉN: ‘Brujos denuncian tortura ordenada por el expresidente de Gambia

El método principal para detectar imágenes ilegales fue creado en el 2009 por Microsoft y Hany Farid, hoy profesor en la Universidad de California, en Berkeley. El software, conocido como PhotoDNA, puede usar computadoras para reconocer fotografías, incluso alteradas, y compararlas con bases de datos de imágenes ilegales conocidas. Pero esta técnica es limitada debido a que no existe una sola lista acreditada de material ilegal conocido.

Sin embargo, incluso si hubiera una sola lista, no resolvería los problemas de las imágenes creadas de forma reciente, ni el repunte en el abuso transmitido vía streaming en vivo.

Para víctimas como E. y su hermana F., el trauma de las fotografías y videos que recirculan constantemente puede tener efectos devastadores. Su madre dijo que ambas hermanas habían sido hospitalizadas por pensamientos suicidas.

Y debido a que se sabe que los criminales en línea intentan localizar a niños que han sido víctimas de abuso, las hermanas no hablan públicamente.

Te quitan tu voz, dijo E. Debido a esas imágenes, no puedo hablar como yo misma. Es simplemente algo así como, Víctima Desconocida.

En busca del abuso

Joshua Gonzalez, un técnico computacional en Texas, fue arrestado este año con más de 400 imágenes de abuso sexual infantil en su computadora, que incluían algunas de E. y su hermana. Gonzalez dijo que había usado Bing, el motor de búsqueda de Microsoft, para encontrar algunas de las fotografías y los videos ilegales, de acuerdo con documentos del tribunal.

The Times creó un programa computacional que exploró Bing y otros motores de búsqueda. El guion automatizado encontró imágenes —docenas en total— que el propio servicio PhotoDNA de Microsoft reportaba como contenido ilícito conocido. Bing incluso recomendaba otros términos de búsqueda cuando se escribía un sitio de Internet con abuso sexual conocido en el recuadro de búsqueda. Los pedófilos también han empleado la función de búsqueda visual, que recupera imágenes con base en una fotografía de muestra.

Tras analizar los hallazgos de The Times, Microsoft dijo que descubrió una falla en sus prácticas de escaneo y que estaba reexaminando sus resultados de búsqueda. Pero pruebas posteriores del programa encontraron todavía más.

Cuando The Times utilizó el mismo programa computacional en el motor de búsqueda de Google no presentó contenido de abuso. Pero documentación brindada por el Centro Canadiense para Protección Infantil mostró que imágenes de abuso sexual infantil también habían sido halladas en Google y que la compañía en ocasiones se había resistido a retirarlas.

VEA TAMBIÉN: Construcción de un resort de esquí es una amenaza para el medio ambiente

Una imagen capturaba los abdómenes de niños obligados a participar en actos explícitos entre ellos.

El Centro Canadiense pidió a Google que retirara la imagen en agosto, pero Google dijo que no cumplía con su umbral para ser eliminada, muestran los documentos. A la larga, Google cedió.

Otra imagen, encontrada en septiembre del 2018, muestra a una mujer que toca los genitales de una niña de 2 años desnuda. Google declinó quitar la fotografía, al declarar en un correo electrónico a los analistas canadienses que aunque equivalía a pedofilia, no es ilegal en EE. UU.. Más tarde admitió haber cometido un error.

Cuando The Times preguntó a Google sobre la imagen y otras identificadas por los canadienses, un vocero reconoció que debieron haber sido retiradas y que posteriormente así se hizo.

Una semana después de que las imágenes fueron retiradas, el Centro Canadiense reportó dos imágenes adicionales. Google dijo al Centro que ninguna imagen cumplía con el umbral de reporte, pero más tarde aceptó quitarlas.

Nos desconcierta, dijo Lianna McDonald, directora ejecutiva del Centro.

Criminales en todos lados

El problema no se limita a los motores de búsqueda. Los pedófilos a menudo apalancan múltiples tecnologías y plataformas, al reunirse en aplicaciones de chats y compartir imágenes en almacenamiento en la nube.

Lo primero que la gente necesita entender es que cualquier sistema que permite compartir fotografías y videos está absolutamente infestado de abuso sexual infantil, dijo Stamos. Los criminales a menudo debaten en foros en línea y grupos de chat cómo explotar vulnerabilidades en las plataformas, muestran casos de tribunales.

La huella digital que ha seguido a una joven víctima de abuso es representativa del patrón. La víctima, quien ahora es adolescente y vive en la Costa Oeste de EE. UU. , no sabe que hay imágenes de su abuso en Internet. Su madre y su padrastro desearían que así continúe.

Para ella, internet es buscar cachorritos, dijo su padrastro.

Los criminales sexuales a menudo comparten fotografías y videos del abuso de la joven en sitios que aparecen en Bing y otros lugares. Cuando las imágenes son detectadas, el FBI notifica a su familia o a su abogado. Durante los últimos cuatro años, dice su familia, han recibido más de 350 notificaciones sobre casos por todo EE. UU.

Cuando cumpla 18 años, se convertirá en quien legalmente reciba los reportes sobre el material. A esas alturas, esperan su madre y padrastro, podrá manejar mejor la noticia. También tienen la esperanza de que las compañías de tecnología hayan logrado quitar las imágenes de Internet para ese entonces.

‘Las imágenes son eternas

En un hogar temporal con múltiples víctimas, dos de las hijas adoptivas fueron filmadas cuando eran violadas por su padre, mientras que otras sufrieron abusos pero no fueron fotografiadas o filmadas. La diferencia, dijo su madre sustituta en el hogar temporal, puede ser profunda con el tiempo.

Les enoja que esas imágenes son para siempre, apuntó. No creo que algún día se eliminen por completo.

VEA TAMBIÉN: ¿Será posible tocar la Luna?

En el 2017, la industria de la tecnología aprobó un proceso para facilitar que todas las compañías detecten material ilícito, de acuerdo con correos electrónicos confidenciales y otros documentos que fueron parte de un proyecto dirigido por Technology Coalition, un grupo enfocado en temas de seguridad infantil que incluye a la mayoría de las compañías de tecnología importantes.

Sin embargo, el plan no ha ido a ningún lado.

Un futuro incierto

La falta de acción a través de la industria ha permitido que incalculables videos e imágenes permanezcan en internet y también que contenido con abuso prospere a través de plataformas de streaming en vivo.

Facebook, Google y Microsoft han dicho que están desarrollando tecnologías que encontrarán nuevas fotografías y videos en sus plataformas, pero eso podría tardar años.

Muchas compañías, entre ellas Amazon, han citado la privacidad de los clientes como obstáculo para combatir el abuso. Algunas, como Dropbox y Apple, también invocaron preocupaciones de seguridad cuando se les preguntó sobre sus prácticas.

Varios expertos forenses digitales y funcionarios de imposición de la ley dijeron que las compañías estaban siendo poco sinceras al invocar seguridad. Stamos, el ex director de seguridad en Facebook y Yahoo, dijo que las compañías sencillamente no quieren publicitar que están abiertas para hacer negocios con criminales.

Si dicen, ‘es un problema de seguridad, están diciendo que no lo hacen, señaló.