Con simplemente una fotografía, la página de DeepNude puede desnudar a cualquiera utilizando tecnología de Inteligencia Artificial.
Parece que la tecnología avanza a base de las necesidades sexuales. Ciertamente esa es la impresión que deja esta nueva aplicación llamada DeepNude, que permite que con una sola foto, hagas fakes de la persona desnuda.
La aplicación se puede acceder en la página web y consiste de dos versiones, una gratis y otra pagada. La primera viene con algunas limitaciones en las fotografías y varias marcas de agua. Mientras que la pagada cuesta 50 dólares y no tiene limitantes y solo una pequeña marca de agua que cubren el rostro y demuestran que la imagen es falsa.
La página, sin embargo, se encuentra caída al momento de publicar esta nota, ya que, según sus creadores en Twitter, no esperaban tanto tráfico en sus servidores.
«¡Hola! DeepNude está desconectado ¿Por qué? Porque no esperábamos estas visitas y nuestros servidores necesitaban refuerzo. Somos un equipo pequeño. Necesitamos arreglar algunos errores y recuperar el aliento. Estamos trabajando para que DeepNude sea estable y funcione. Estaremos de nuevo en línea dentro de unos días.»
Hi! DeepNude is offline. Why? Because we did not expect these visits and our servers need reinforcement. We are a small team. We need to fix some bugs and catch our breath. We are working to make DeepNude stable and working. We will be back online soon in a few days.
— deepnudeapp (@deepnudeapp) June 27, 2019
La app está basada en la tecnología de «Pix2Pix», que es de acceso libre (Open source). Tecnología que fue desarrollada por la Universidad de California hace un par de años.
Polémica legal
La aplicación llega en medio de la alza de los videos «deepfakes«, que consisten en videos porno hiperrealistas con rostros de celebridades impuestos para que parezca que ellas los protagonizan. El controvertido uso de la inteligencia artificial viene con una nueva capa de polémica de parte de esta aplicación.
Podrían salir problemas legales del uso de esta aplicación, por el revenge porn o porno venganza. «Ahora cualquiera puede ser víctima del porno venganza, sin haber tomado una foto desnuda. Esta tecnología no debería estar disponible para el público«, dijo Katelyn Bowden, activista en contra del porno venganza y fundadora de la Organización activista ‘Badass’ a la página VICE.
Asímismo, DeepNude fue calificada de «Invasión a la privacidad sexual» de acuerdo a Danielle Citron, profesora la Facultad de derecho de la University of Maryland.