Inteligencia artificial crea modelo ficticio llamado ‘Claudia’ y vende sus fotos íntimas

La imagen que muestra una joven llamada Claudia en Reddit está causando sensación en los usuarios de la plataforma, quienes no pueden evitar halagar su belleza. Sin embargo, lo sorprendente de todo esto es que Claudia no existe, es una creación de inteligencia artificial. A pesar de que la tecnología para generar imágenes falsas ha existido por un tiempo, esta es una muestra más del uso cada vez más común de la inteligencia artificial para crear identidades ficticias y engañar a los usuarios en línea.

Dos investigadores de medios sintéticos han descubierto que Claudia, una joven que ofrece fotos de desnudos en Reddit, es en realidad una creación de inteligencia artificial. A pesar de su sorprendente realismo, las fotos han sido diseñadas para engañar a compradores desprevenidos en busca de contenido sexual.

Los generadores de imágenes de inteligencia artificial, como Midjourney y Stable Diffusion, están causando furor en todo el mundo gracias a sus innovadoras obras de arte y a sus impresionantes falsificaciones de personalidades políticas y religiosas.

No obstante, el caso de Claudia es el lado más explícito de la tecnología: estas herramientas permiten a cualquier persona crear imágenes de personas falsas que parecen increíblemente reales y están cambiando la forma de hacer y consumir porno. Actualmente, existen miles de cuentas en foros y salas de chat que se dedican a crear y perfeccionar personas sintéticas, principalmente mujeres y niñas. Este cambio radical podría tener consecuencias negativas para la industria y la sociedad, ya que podría socavar la demanda de modelos y actores del mundo real y alimentar preocupaciones más profundas sobre la cosificación y la explotación de la mujer.

Un administrador de sistemas de un hospital de EE.UU. que utiliza herramientas de difusión estable para crear fotos fetichistas de mujeres adultas en pañales asegura que la calidad de las imágenes es tan alta que su falsedad no importa. Aunque hay quienes opinan que la persona media que consume este tipo de contenido no se preocupa por su veracidad, otros creen que la tecnología puede ser perjudicial para la sociedad.

La cuenta de Claudia, creada con herramientas de IA, no respondió a las peticiones de comentarios, por lo que se desconoce cómo se hicieron las fotos o cuánto dinero se recaudó con el engaño. Sin embargo, según los investigadores, las fotos presentaban varias características claras de falsedad, como detalles extraños en el fondo y un lunar en el cuello que desaparecía entre una pose y otra.

Los investigadores identificaron varios perfiles en línea de mujeres que creen que son avatares falsos basándose en los artefactos reveladores que algunos generadores de imágenes de IA dejan tras de sí. Estas cuentas comparten imágenes de mujeres en distintos estados de desnudez e indican a los espectadores que deben pagar o suscribirse si quieren ver más. Aunque algunas cuentas no respondieron a las preguntas, cientos de cuentas en línea siguieron y comentaron las cuentas porno falsas, dejando comentarios que sugerían que creían que las mujeres eran reales. Además, una cuenta publicó los vídeos de un actor porno aficionado de Puerto Rico junto con imágenes editadas que mostraban el rostro de la mujer sobre el cuerpo de otra persona.

“Me siento un poco engañado”, dijo el usuario de Reddit “legalbeagle1966″ después de que un periodista del Washington Post le dijera que Claudia era probablemente un fraude. Una semana antes, había comentado en su foto que parecía “bastante sexy y perfecta”.

Muchas de las imágenes falsas más recientes se basan en programas de inteligencia artificial, conocidos como modelos de difusión, que permiten a cualquiera teclear una breve retahíla de palabras y crear una foto falsa de forma gratuita. A continuación, las imágenes pueden editarse aún más para hacerlas más convincentes, incluso para tapar fallos y perfeccionar su calidad.

Las herramientas son incluso más fáciles de usar que el software de “deepfake” que alimentó las preocupaciones sobre las imágenes de IA en 2017. Mientras que los deepfakes utilizaban técnicas de IA de aprendizaje profundo para editar vídeos existentes, los modelos de difusión generan fotos completamente nuevas siguiendo los patrones encontrados en los miles de millones de imágenes que han analizado anteriormente.

Pero la nueva clase de imágenes plantea muchas de las mismas preocupaciones, incluida la posibilidad de que se utilicen para suplantar a mujeres reales. En algunos foros, los usuarios hablan de cómo utilizar modelos de difusión y otras técnicas basadas en la IA, como el “inpainting”, para superponer los rostros de mujeres reales a los cuerpos de las imitaciones generadas por la IA.

“Para humillar y expulsar a las mujeres de la esfera pública, ni siquiera necesitan parecerse exactamente a ellas. Se basan en el efecto de choque”, afirma Sam Gregory, director ejecutivo de Witness, un grupo sin ánimo de lucro especializado en tecnología de vídeo y derechos humanos.

“Pero el paso a los modelos de difusión ha facilitado mucho la creación de volumen, varianza y personalización, y hacerlo en torno a personas conocidas. La calidad es simplemente mejor”, añadió. “La gente ya quiere inclinarse por creer algo que humilla, se burla o se dirige a alguien que le desagrada”.

Stability AI, la start-up londinense que está detrás de Stable Diffusion, prohíbe a la gente utilizarla para crear imágenes que una “persona razonable podría considerar obscenas, lascivas… [o] pornográficas”.

Pero como la empresa ha puesto la herramienta a disposición de todo el mundo para que la descargue en su ordenador, no tiene forma de impedir que alguien la utilice para hacer lo que quiera.

En algunos foros dedicados al uso de la herramienta para crear porno generado por IA se habla incluso de cómo puede utilizarse para crear imágenes sexualmente explícitas de mujeres sin su consentimiento. La gente también ha compartido guías sobre cómo utilizar la tecnología para editar imágenes reales, incluso para quitar la ropa a mujeres que fueron fotografiadas completamente vestidas.

Las imágenes han alimentado cierta inquietud en la industria del porno ante su nueva competencia tecnológica. Pero no todos creen que la industria tenga los días contados. Mark Spiegler, agente de actores porno como Asa Akira y Riley Reid, afirma que las estrellas de su sector son intérpretes con carisma, habilidad y atractivo con los que ninguna IA puede competir.

“No creo que se pueda aprender una personalidad de forma automática”, afirma en una entrevista. “Se puede replicar en cierto modo, pero sigue faltando esa chispa humana y esa espontaneidad”.

Zoey Sterling, estudiante de historia del arte y trabajadora sexual en Miami que vende fotos y vídeos explícitos en OnlyFans, dijo que no está preocupada.

“La gente que dice que la IA podría reemplazar a las trabajadoras del sexo son los mismos que actúan como si las trabajadoras del sexo no fueran seres humanos”, afirmó en una entrevista. “Les deseo la mejor de las suertes y espero que puedan averiguar qué significa ‘consentimiento’. Quizá puedan preguntárselo a la IA”.

Algunas cuentas de avatares femeninos dicen explícitamente a los espectadores que fueron creados con Stable Diffusion u otras herramientas de IA. Otras han sido un poco más sutiles: “Ailice”, un avatar con unos 10.000 seguidores en Instagram, se define a sí misma como “vida de IA, vibraciones reales”.

Pero otros, como Claudia, no dan ninguna indicación. La primera publicación de la cuenta en Reddit, en enero, fue un largo pasaje sexualmente explícito de lenguaje obsceno ante el que varios usuarios de Reddit expresaron su excitación: “Necesito una buena chica como tú en mi vida”, escribió uno. ZeroGPT, una herramienta para detectar texto generado por ordenador, dijo que estaba seguro en un 97% de que el pasaje había sido generado por una herramienta de lenguaje de IA como ChatGPT.

La cuenta publicó otros pasajes e imágenes explícitas, incluida una que mostraba a una mujer en ropa interior, y cualquiera que hiciera clic en el perfil podía ver que la cuenta se describía a sí misma como una mujer de 19 años que vendería imágenes privadas a compradores de pago.

No fue hasta la semana pasada, cuando Claudia publicó la foto “sintiéndose guapa hoy” en un foro de Reddit dedicado a “imágenes de rostros humanos”, cuando la gente empezó a sospechar que se trataba de una IA.

Algunos usuarios de Reddit afirmaron que la piel de Claudia parecía “demasiado suave, demasiado ‘perfecta’” y señalaron que la habitación blanca y sin rasgos en la que aparecía tenía una viga en el techo que desaparecía detrás de su cabeza pero no volvía a aparecer al otro lado. Un programador de inteligencia artificial que habló con The Post declaró que también había algunos indicios técnicos: el ancho de la foto, de 512 píxeles, es el tamaño de imagen por defecto de Stable Diffusion.

No todo el mundo se dio cuenta. El usuario de Reddit “Lanky_Grade_268″, que aseguró ser un limpiador de hoteles de 21 años en Argentina, había llamado a Claudia “hermosa y encantadora” y dijo que estaba desconcertado por la revelación de que podría ser falsa. “Da miedo porque será difícil distinguir entre una IA y una persona real”, escribió en un mensaje.

Pero el usuario de Reddit “Ryan5197″, que había dicho a Claudia que parecía “increíble”, estaba menos preocupado. “Mi opinión sobre la imagen no ha cambiado”, dijo. “Es un personaje bonito”.