La IA está acelerando la crisis de la pornografía a medida que los niños crean y consumen imágenes deepfake de sus compañeros de clase

Comparte

Traducido de Life Site News por TierraPura

Por Jonathon

«Hace diez años, el sexting y los desnudos causaban estragos en las aulas», escribe Sally Weale en un nuevo y escalofriante informe en The Guardian . «Hoy, los avances en inteligencia artificial (IA) han hecho que sea pan comido generar imágenes o vídeos de desnudos deepfake, que muestran a quienes parecen ser tus amigos, compañeros de clase e incluso tus profesores. Esto puede implicar quitarse la ropa, hacer que una imagen se mueva sugestivamente o pegar la cabeza de alguien en una imagen pornográfica».

He estado cubriendo el auge de la próxima y terrible manifestación de nuestra crisis colectiva de pornografía aquí en LifeSiteNews desde 2019, cuando advertí que el auge de los «deepfakes» inevitablemente llevaría a la gente a crear pornografía artificial de sus compañeros. Tan solo unos años después, informé sobre historias de estudiantes de secundaria que hacían pornografía deepfake de los chicos con los que asistían a clase; el año pasado, informé sobre el auge de las aplicaciones de «desnudez» que permiten desnudar digitalmente a personas en fotografías, y el trauma, el acoso y el inevitable chantaje sexual que esto ha provocado.

El informe de The Guardian revela la rapidez con la que se está intensificando esta crisis. Una profesora describió un incidente en el que un adolescente sacó su teléfono, eligió una imagen de una chica de una escuela vecina en redes sociales y usó la aplicación «Nudify» para desnudarla digitalmente. La profesora se sorprendió al ver que el chico ni siquiera ocultaba sus acciones, porque no consideraba lo que hacía impactante ni vergonzoso. «Me preocupa que esté tan normalizado», dijo. Otros estudiantes denunciaron al chico, se contactó a sus padres y se llamó a la policía. A la chica víctima ni siquiera se le informó.

La crisis es global. «El año pasado, en España, 15 chicos de la región suroeste de Extremadura fueron  condenados a un año de libertad condicional  tras ser declarados culpables de usar IA para crear imágenes falsas de desnudos de sus compañeras de clase, que compartieron en grupos de WhatsApp», escribe Weale. «Unas 20 chicas se vieron afectadas, la mayoría de 14 años, mientras que la más pequeña tenía 11».

Una situación similar se desarrolló en Australia, donde se distribuyeron imágenes deepfake de 50 estudiantes de secundaria; en Estados Unidos, 30 estudiantes mujeres de Nueva Jersey descubrieron que «se habían compartido imágenes pornográficas de ellas entre sus compañeros masculinos en Snapchat».

La madre de una estudiante en Australia dijo que «su hija quedó tan horrorizada por las imágenes sexualmente explícitas que vomitó». En el Reino Unido, el problema se ha disparado de la noche a la mañana:

Una nueva encuesta a 4.300 profesores de secundaria en Inglaterra, realizada por Teacher Tapp para The Guardian, reveló que aproximadamente uno de cada diez tenía conocimiento de que algún alumno de su centro hubiera creado vídeos deepfake sexualmente explícitos durante el último curso académico. Tres cuartas partes de estos incidentes afectaron a niños de 14 años o menos, mientras que uno de cada diez a niños de 11 años, y el 3% eran aún más jóvenes, lo que demuestra la facilidad de acceso y uso de la tecnología. Entre los profesores participantes, el 7% afirmó haber tenido conocimiento de un solo incidente, el 1% afirmó haber ocurrido dos veces, mientras que una proporción similar afirmó haber ocurrido tres veces o más durante el último curso académico. A principios de este año, una encuesta de Girlguiding reveló que uno de cada cuatro encuestados de entre 13 y 18 años había visto una imagen deepfake sexualmente explícita de una celebridad, un amigo, un profesor o de sí mismo.

Como era de esperar, el profesorado también está en la mira. Niñas y mujeres quedan destrozadas por esta victimización. Laura Bates, autora de » La nueva era del sexismo: Cómo la revolución de la IA está reinventando la misoginia» , escribe: «Se siente como si alguien te hubiera tomado y te hubiera hecho algo sin que pudieras hacer nada al respecto. Ver un video de ti mismo siendo violado sin tu consentimiento es una experiencia casi extracorpórea». Los niños, mientras tanto, participan en conductas delictivas, a menudo sin siquiera saberlo. En el mundo en el que han crecido, la pornografía es normal, y esto es solo el siguiente paso.

Los expertos entrevistados por Weale, como de costumbre, no saben qué hacer ante esta crisis. Ponen el énfasis en la educación, aunque admiten que esto equivale a usar una pistola de agua para apagar un incendio forestal. Dudan de que las directrices o prohibiciones sobre la tecnología en la escuela sean de ayuda. Es comprensible que los educadores estén desmoralizados e incluso desesperados. La pornografía y el sexting ya han transformado las escuelas. La pornografía deepfake está haciendo que una crisis ya de por sí grave sea mucho más personal, y no hay indicios de que el problema pueda detenerse sin medidas drásticas.

La única solución genuina fue propuesta por Dame Rachel de Souza, comisionada para la infancia de Inglaterra. Ella ha abogado por la prohibición total de las aplicaciones de nudificación como ClothOff. «Los niños me han dicho que les asusta la sola idea de que esta tecnología esté disponible, y mucho menos que se utilice», declaró De Souza. De Souza tiene razón. La solución a la crisis de la pornografía es tremendamente difícil, pero extraordinariamente simple: simplemente debemos ilegalizar este contenido, y estas aplicaciones.

La buena noticia es que el primer paso en esta dirección ya se ha dado en el Reino Unido. El 3 de noviembre, el gobierno  presentó el Proyecto de Ley sobre Delincuencia y Vigilancia Policial  en el Parlamento. Este incluye una enmienda que penaliza la pornografía que incluye estrangulamiento o asfixia (generalmente conocida como «asfixia»), con requisitos legales para que las plataformas tecnológicas bloqueen este contenido para los usuarios del Reino Unido.

Esta es la primera vez que un género de pornografía se criminaliza con el argumento de que, incluso si es consensual, perjudica genuinamente a la sociedad . Este es un precedente alentador, ya que se aplica a prácticamente toda la pornografía extrema, y ​​sin duda a las aplicaciones de «desnudez» que están destinadas a convertir la secundaria en un infierno hipersexualizado para mujeres y niñas.

La industria del porno está destruyendo la sociedad. Debemos destruirla primero.

Comparte
Subscribe
Notify of
guest
0 Comentarios
Más antiguos
Recientes
Inline Feedbacks
Ver todos los comentarios