El lado oscuro de la IA: plataformas generan desnudos no consentidos y clonación digital

31 de julio 2025, 19:39hs

La inteligencia artificial (IA) abrió la puerta a una nueva y alarmante forma de manipulación digital: la creación de imágenes y videos de desnudos no consentidos que son prácticamente indistinguibles de la realidad. Este fenómeno se convirtió en el lado oscuro de la IA y en una "industria global de los desnudos falsos que mueve mucha plata". Para entender la gravedad del asunto, conversamos con Juan Corbalán, doctor en Ciencia Jurídica, máster en IA y director del laboratorio de innovación de inteligencia artificial.

Corbalán explica que este proceso se conoce como "clonación digital de humanos", donde no solo la voz y el rostro, sino también las "partes íntimas" de una persona pueden ser "hackeadas" digitalmente. Existen dos métodos principales: uno implica tomar el rostro de una persona y generar un cuerpo desnudo inventado pero simétrico a esa cara. El otro, aún más preocupante, permite generar un video pornográfico a partir de una simple foto de alguien, incluso si la foto no es explícita, haciendo que sea "indistinguible" si el cuerpo es real o falso.

El riesgo no reside en herramientas de IA de acceso masivo como ChatGPT, Gemini o Grok, ya que estas tienen funciones que impiden la generación de desnudos. El peligro emana de tres fuentes clave: primero, más de 55 plataformas accesibles en la web (algunas sin términos ni condiciones) que permiten clonar rostros con facilidad, incluso usando cuentas de correo falsas. Segundo, bandas organizadas que entrenan sus propias IA para generar contenido masivo, a menudo asociado a la pornografía infantil. Y tercero, la creación de "personas falsas desnudas" o "humanos ultrarrealistas falsos" que no existen en la realidad, pero que inundan la web y generan un debate legal complejo sobre la promoción de la pornografía infantil.

La lucha contra esta problemática se complica porque las plataformas que habilitan estos desnudos suelen operar en la "nube", utilizando servicios de grandes empresas como Google o Amazon. Corbalán señala que estas empresas deberían implementar mecanismos de prevención y autenticación, similares a los de seguridad en las tiendas de aplicaciones, para detectar cuando una IA intenta generar un cuerpo desnudo y emitir una alerta, algo que "hoy esto así no lo están haciendo".

La situación es alarmante, ya que cualquiera puede ser víctima, no solo figuras públicas, sino también personas comunes por motivos de "venganza contra una expareja" o "bullying en las escuelas". Corbalán enfatiza que la sociedad no está preparada para esta inundación de personas clonadas y falsas. Para él, este tema, junto con las armas autónomas, es una de las dos cuestiones más importantes que la humanidad debe abordar en el corto plazo, urgiendo a una legislación rápida para enfrentar estos delitos digitales.

MÁS LEÍDAS

Te puede interesar