Televisa Kiosco Digital

Bienvenid@s a la Matrix del porno ultrafalso

Ilustraciones MICHELLE THOMPSON

Suena como un episodio de Black Mirror, pero la no consensuada epidemia del porno ultrafalso que vivimos actualmente es aterradora. Jennifer Savin investigó cómo desnudos minuciosamente alterados tecnológicamente están acabando con la vida de millones de mujeres.

Estoy viendo una fotografía de mi cuerpo desnudo recargado sobre el balcón de un hotel en Tailandia. El bikini de mezclilla que tenía en la foto original fue reemplazado por unos pezones rosa pálido y un pubis sin vello. Hago zoom a la imagen buscando la realidad de cómo fue modificada y si es que algún error lo revela. Hay un ligero efecto pixelado en la parte de mi cintura, lo cual podría ser arreglado por un amateur con conocimiento de photoshop. Y no alcanzo a ver nada más que lo delate. Aunque la imagen en sí no revela cómo me veo sin ropa en la vida real, tampoco se ve completamente falsa. Podría ocurrir que con un par de clicks, cualquier desconocido adjuntara esta foto a un email para luego ser posteada en Twitter, o peor, que masivamente llegara a mis contactos. Quizá podrían subirla a un sitio porno exponiendo mi falsa intimidad y provocando que viva aterrada al pensar que cada persona conocida pudiera haberme visto; aunque, en verdad, no estén viendo mi cuerpo, porque esa foto, a pesar de parecer convincentemente real, no tiene absolutamente nada de real.

La imagen forma parte del creciente mercado porno denominado ultrafalso. Básicamente, se trata de inteligencia artificial (que en la actualidad cada vez se vuelve más y más accesible). Recordarás el mensaje navideño alternativo transmitido en 2020 que mostraba a “Su Majestad” (la reina Isabel de Inglaterra) realizando un baile de TikTok. Eso es un ultrafalso. Todos los videos hiperrealistas donde aparecía Tom Cruise en redes el año pasado… Esos, también son parte del mundo ultrafalso. Las apps que modifican nuestro rostro a joven o viejo, pues... eso también es parte de lo ultrafalso.

Aunque el ultrafalso, conocido tambien en inglés como deepfake, esté hoy en todas partes, es un tanto cuanto desconocido. Cruelmente explicado, la tecnología implicada en los contenidos ultrafalsos está conformada de varias partes muy maliciosas: el (GAN) o generador de la imagen que compara fotografías, videos o audios con imágenes porno parecidas. Y la otra parte, denominada el discriminador, que verifica que estas nuevas imágenes y videos creados a partir de la modificación tecnológica pasen por legítimos. Los GAN o generadores de imágenes han sido reconocidos por crear un nuevo contenido para el cine, algunos aspectos tecnológicos utilizados en medicina y para avances digitales, aunque su uso hoy tristemente se basa más para lo malo que para lo bueno.

Estudios publicados en 2019 por la compañía Sensity, dedicada a la detección de fraudes, encontraron que más del 90% de los videos ultrafalsos en redes son pornográficos e involucran de manera no concensuada la imagen de mujeres. Y cada seis meses, las cifras se están duplicando. Mientras escribo este artículo quizás haya al menos 57 millones de videos ultrafalsos porno tan solo en Google. En comparación con el año pasado, esta cifra creció de manera aterradora un 37% en redes sin el mínimo signo de haber parado; síntoma de que ya se perdió el control de cómo se multiplica este tipo de videos. ¿Qué podríamos hacer para frenar todo esto?

¿Quién es su target?

En 2017 se empezó a gestar todo esto, cuando usuarios de Reddit, de manera oscura y sucia, usaban imágenes de las celebs para modificarlas tecnológicamente en contenido pornográfico. Pronto todo tomó revuelo generalizándose, así que de manera continua se subían imágenes y videos que en segundos se viralizaban. Esto vino a llenar el hueco de las fantasías porno: el de ver a las estrellas de la alfombra roja en imágenes o videos inexistentes, que satisfacían el morbo de mirarlos en actitudes pornográficas. Deleitaban a este público que, de forma pletórica, podía elegir ver a su celebridad favorita en este contenido falso que parecía real.

Pero internet tomó el control de este problema que estaba en Reddit, Twitter y Pornhub; bloqueó y eliminó todo el contenido ultrafalso en febrero de 2018. En mucho, este hecho se agilizó cuando el deepfake llegó hasta involucrar al sector político al crear clips de videos donde se incitaba a la violencia o donde se ponía a los políticos con declaraciones que dañaban a candidatos; ahí fue donde las alarmas se encendieron para frenar esta producción de videos e imágenes virtuales. Podríamos pensar que los dañarían inventándose videos pornográficos únicamente, pero todo fue más allá de eso;

los contraponían en opiniones y declaraciones, lo cual era grave. Sin embargo, este freno que se dio de manera contundente, no detuvo realmente a los generadores de contenido ultrafalso, pues migraron a otras plataformas y otras maneras de operar; incluso los influencers ahora también eran sus presas, los involucraban en imágenes inexistentes de desprestigio, ocasionando la pérdida de su número de seguidores en cuestión de minutos.

Hoy ya existe un sitio porno específico para la creación de videos de celebridades de corte ultrafalso, llamado MrDeepfakes, con vistas que alcanzan los 13 millones mes con mes. El sitio tiene reglas en las que se prohiben los videos ultra-falsos de gente común, aunque cuenta con chatrooms donde se muestran tutoriales de cómo tu mism@ puedes crear tecnológicamente uno de estos videos, además de que reciben muchas peticiones de crearlos para sus propios usuarios. En un chatroom similar a estos fue donde encontré el bot que transformó mi foto en Tailandia en un desnudo total. Puedes enviar una foto de quien quieras, de preferencia en ropa interior, bikini o poca ropa, y en segundos se volverá una nude. La versión que tienen para descarga gratis no es tan realista como la de paga; incluso, de repente en el resultado hay pezones en un brazo. Pero una vez que pagas, el desnudo femenino es tan realista que incomoda; el bot está tan bien diseñado para desnudar de manera tecnológica los cuerpos femeninos, que cuando yo mandé la foto de mi novio (con su absoluto consentimiento) de repente apareció una vulva sobrepuesta en una parte de su cuerpo. Pero, ¿cuán posible es que todo esto ya se haga sin ética alguna y pase de la imagen de una celebridad a una persona común? Ambas son una violación a la intimidad. Animada por encontrar respuestas, me hice pasar en línea como un hombre que buscaba tener imágenes de una chica de su trabajo transformadas en porno. Entonces, conocí a un creador de imágenes porno ultrafalsas denominado BuggedBunny, quien promueve sus servicios tecnológicos en los chatrooms que provee el sitio y, además, explícitamente me comenta que prefiere crear videos falsos a partir de verdaderos que él mismo hace con mujeres reales. Cuando le pido alguna prueba de sus capacidades tecnológicas para crear porno ultrafalso, me comparte una foto de una mujer de veintitantos años que aparece como madrina de una boda y BuggedBunny transformó editándola en dos videos pornográficos: me envía un Dropbox; en un video aparece que la madrina de boda está siendo abusada por una pandilla y en el otro video esta misma chica pareciera que está practicando sexo oral. Y aunque yo sepa que estos videos son falsificados a partir de una fotografía, lo alarmante es ver cómo puedes crear o, mejor dicho, destruir tanto a partir de una sola imagen.

Cuando BuggedBunny me pide fotos de la chica de mi oficina a la que quiero hacer un deepfake, de inmediato le mando fotos de mi persona vestida. A lo que contesta: “Ay, ya he usado el rostro de esta mujer, jajaja”. (O sea, el mío propio). Cuando le pido que los videos sean de ella en posiciones vista de atrás, me contesta: “Tengo miles de videos así, ya sé qué estás buscando”. Me quedo pensando por minutos en la madrina de boda; en si tuviera idea de que alguien la mira en videos porno ultrafalsos... ¿Alguien habrá hecho esto contra ella en venganza, para mandar emails oscuros o por pura gratificación sexual? Peor aún, pareciera que hay un grupo muy joven de edad

Más del 90% de los deepfakes son clips pornográficos de mujeres no consentidos.

en el mundo oscuro del internet que consume esta industria pensando que, como se ocultan bajo usuarios falsos, sus acciones delictivas no tienen consecuencias; el mismo BaggedBunny me pedía hacerle transferencias desde mi teléfono, hasta llegó a decirme: “No pasa nada, hazlas, mi papá hace estas transferencias todo el tiempo”, lo cual habla de que hay gente muy joven atrás de esta inconsciencia de mover esta industria. ¡Cómo les hago entender que sí tiene muy graves consecuencias!

El porno ultrafalso de la vida real

Una tarde fría de invierno, el timbre de su puerta sorprendió a la poeta de profesión Helen Mirt, de 36 años, a la mitad de pandemia, mientras su hijo estaba en la guardería en Yorkshire. Era un momento en que nadie tenía invitados. Cuando Helen abrió, se topó con un señor del vecindario que lucía preocupado, ella pensó que algún vecino había muerto. Pero no se trataba de eso, si no de algo inesperado. El señor le confesó que durante su visita a un sitio porno, había visto fotos de ella, las cuales, al parecer, habían estado por años recorriendo los sitios porno de internet. Al principio, ella pensó que tal vez alguna expareja, en revancha, había dicidido compartir contenido íntimo. Pero, recordó que jamás se había tomado fotos desnuda, por lo que tampoco tenía videos íntimos que pudieran estar circulando en las redes. Ese día, Helen se enteró de lo que eran los videos ultrafalsos; sus fotos circulantes eran de las imágenes que alguien tomó cuando estaba embarazada. Aunque ella sabía que todo ese contenido era falso, pues nunca se había tomado fotos o videos con intención sexual, la noticia de verse en sitios porno la perturbaba: “Tu reacción inicial es de vergüenza, yo no quería ni toparme a alguien cruzando la calle, estás segura de que ya todo mundo vio ese contenido. Te sientes muy, muy expuesta. Y el enojo aún no se me quita”.

Nadie fue castigado por ello. Helen tuvo que lidear con los efectos de verse involucrada en videos de este tipo. “Me encerré por meses. Sigo tomando antidepresivos y aunque, al principio, el caso lo tomó la policía, terminó cerrándolo al poco tiempo”. La persona que creó este contenido pornográfico falso jamás la ha contactado o pedido dinero, lo cual la deja aún más a la deriva, pues aparentemente no hay un responsable del daño o del desastre que este contenido generó. “Eventualmente, encuentro paz en crear un poema que hable del daño y con ello incito a las leyes a reformarse a favor del abuso”, cuenta. Es muy difícil hacer que una persona creadora de contenido ultrafalso sea procesada por la ley, aunque esté tipificado como un delito digital de daño y abuso sexual. Es más fácil ver que procesen a alguien por difamación, por derechos de imagen o daño a la privacidad, que por crear tecnológicamente un video sexual falso.

Otro extraño caso fue el de Dina Mouhandes, de 32 años, originaria de Brighton, quien en 2015 pudo desenmasacrar al hombre detrás de las fotos de ella en un sitio porno. Había imágenes mías que eran muy evidentes de ser falsas, como en las que me mostraban con senos gigantescos y otras. “Era todo humillante y horrible, esas imágenes están haciendo a alguien sentirse tremendamente incómoda, e invadida, al mismo tiempo”.

Se estima que 10 millones de mujeres son hoy víctimas del porno deepfake.

Dina, así como Helen, fue alertada de lo que sucedía por un amigo que veía porno. Dice que al principio se rió de la edición precaria de las imágenes. Hasta que pensó: “¿Y si alguien cree que acepté hacerlas? Porque mi nombre venía ahí, en el sitio”. Dina vio el perfil de la persona que subió las imágenes y descubrió que también otra colega de oficina estaba siendo afectada en los videos. Supuse que era alguien con quien ambas habíamos trabajado, pero no podía creer que era él.

En el caso de Dina, la policía tomó cartas en el asunto con el creador de las imágenes y luego perdió contacto con los agentes, por lo que no sabe si este hombre fue procesado o no. Según la policía, él se acercó a profesionales de la salud alegando que había tenido una crisis mental cuando esto sucedió. “Incluso me sentí culpable –comenta Dina– pero… Tenía que reportar lo sucedido. Me asustaba que él lo hiciera otra vez. Me preocupaba que le sucediera a alguien más”.

Y nos puede pasar a cualquiera y casi que ni enterarnos, al menos que como en el caso de Dina y Helen alguien venga a alertarnos. Cara Hunter, política de 25 años originaria de Irlanda del Norte, fue involucrada en algo similar este año. Un video pornográfico de ella con un actor se viralizó de manera increíble, además de las fotos reales de Cara en Bikini vía WhatsApp. Todo esto durante su carrera a los comicios y con muchas ganas de desacreditar su imagen política. “Estas tácticas, aunado a lo que los videos porno ultrafalsos pueden hacer, incluso a la más segura de las mujeres la desarman a nivel profesional”, asegura. Además de tener que decirle a su padre lo que estaba sucedidendo, lo narra como uno de los peores momentos en su vida. “Hombres me paraban en la calle elogiando mis habilidades para el sexo oral y había miles de comentarios en instagram de pecadora y sucia. Y clickeas el perfil de quienes postean esto en redes y tienen familia, hijos. Te están cosificando y humillando por medio de toda una mentira sexual. Tu reputación se arruina al instante”.

Cara dice que lo peor es que todos tienen un celular a la mano, así que pueden arruinarte porque una mentira puede dar la vuelta al mundo antes de que tú puedas tomar cartas en el asunto. Lo alarmante es que nuevamente las mujeres tienen que replantear su seguridad y sus vidas para evitar ser víctimas de crímenes de odio por parte de los hombres. Y podemos cerrar los ojos y hacernos las que no pasa nada, pero el problema de fondo es todavía más grande, pues expertos estiman que para 2026, el 90% de lo que consumimos mediáticamente estará hecho de manera artificial.

Por lo menos, 1 de cada 20 personas que conocemos ha estado involucrada en un escenario sexual falso y editado; y aunque los videos sean removidos de la red, siempre hay alguien que los graba del lado oscuro para seguirlos promoviendo.

Pregunté a Reddit si hay políticas de seguridad para evitar que se comparta, propague o viralice contenido íntimo explícito sin el consentimiento de la persona. A lo que manifestaron: “Continuaremos eliminando y bloquendo contenido que viola las políticas de uso y seguiremos tomando acción en contra de los usuarios o comunidades que se vinculen a este comportamiento ilegal”.

Hablando con un experto en temas de deepfake como Henry Adjer sobre cómo podemos protegernos y qué necesita ser cambiado de inmediato, me abre los ojos con su comentario acerca de que casi no ve celebridades masculinas involucradas en los videos ultrafalsos y, en caso de que los haya, siempre es algo que busca la comunidad gay. “Pienso que más de 10 millones de mujeres en el mundo hoy son involucradas como víctimas en alguna manifestación pornográfica deepfake”. Dice que el sexo, la confianza y la tecnología están siendo intervenidas por la realidad virtual usada por muchos para involucrarse a nivel personal. “Hay que evitar que los niños y adolescentes ronden los sitios oscuros del internet donde van a toparse con estos peligros”, apunta.

Aunque las compañías remuevan estos contenidos, internet es un lugar tan grande y vasto que es casi imposible que la policía detenga del todo su operación. Hay un camino largo en lograr que las leyes se cumplan para luego hacerlas funcionar correctamente. Hasta que eso suceda, necesitamos fortalecer la combinación de inversión de las empresas tecnológicas para identificar y prevenir la creación de videos e imágenes ultrafalsas. En vez de pasar horas en línea y redes, como sociedad debemos identificar que la realidad online y offline son dos mundos totalmente separados y que nuestra moral online puede arruinar nuestra vida offline, convirtiéndose en crímenes que la ley debe perseguir sobre todo cuando se trata de cómo se percibe el cuerpo de la mujer.

El deepfake es el dedo señalador de la equidad de género y del control que debemos tener sobre nuestra propia imagen, aunque jamás te hayas tomado una foto o video desnuda en toda tu vida (algo que deberíamos poder hacer sin miedos ni estigmas ni filtraciones virales) hoy puedes seguir siendo estigmatizada y señalada por tu propia sexualidad usada en tu contra. ¿Acaso no es ya momento de ponerle un poco de photoshop a esa narrativa en contra de una buena vez?

OPEN MIND

es-mx

2023-01-01T08:00:00.0000000Z

2023-01-01T08:00:00.0000000Z

https://editorialtelevisa.pressreader.com/article/283132842880514

Editorial Televisa