Como todo lo viral en la actualidad, la “moda” de FaceApp fue una bomba pero a una semana pareciera que ya pasó de moda. Es increíble cómo estas aplicaciones son tan efímeras. Solo una semana duró el momento de fama de la “App que te convierte en viejo”.

Aún así, más de la mitad de los contactos de mis redes sociales se saco una foto y se transformó en viejo. Y de la otra mitad, casi todos quisimos hacer lo mismo, aunque algunos no por el famoso “miedo a la privacidad”.

Días después la mayoría de los medios de comunicación hegemíncos hicieron eco a la misma noticia: La de un servicio de origen ruso que gracias a una App “de moda” había obtenido datos de 150 millones de usuarios. Conste que yo avalo ese espíritu paranoide, pero sinceramente no paré de ver a los medios serios y profesionales pasando el ridículo.

Y es que parece que todavía no se dieron cuenta que hace una década estamos bajo el poder de dos inmensos monstruos como Google y Facebook (que para aquel ingenuo, Facebook incluye WhatsApp e instagram) pero que, a diferencia de Faceapp, las noticias del mal uso de nuestros datos escasean.

Brindarle una visión paranoide a la población con cada startup que nos pide una foto es una estrategia errónea, que solo lleva a decir “bleh” que al reconocimiento y atención que regalar nuestra información merecen.

¿Por qué? A ver… la gente estás tendencias las va a seguir igual. Es el poder que tienen los números en las redes sociales que nos lleva a adaptarnos y adoptarnos a las tendencias. Tanto cómo cualquier challenge que sale cómo con cualquier App de moda, todos siguen tendencias sin pararse a pensar. Fue, es y será así. Yo creo que aquellos que no seguimos estas modas debemos apuntar los cañones a los verdaderos villanos porque mientras defendamos a los hegemónicos, seguirán haciendo de nuestra información lo que les da la gana.

¿Tendrá que ver que estos medios hegemónicos se la pasan publicitando su perfil de Facebook o instagram para adaptarse y adoptarse las tendencias? El himno paranoide debajo del ala protectora de Facebook no es más que Disney.

Pero estos aires paranoides no van al caso, la explosión viral de Faceapp es mucho mas importante que la escasa privacidad de nuestras selfies implica.

Inteligencias artificiales capaces de engañar inteligencias humanas

Primero una definición básica: Faceapp funciona gracias a una inteligencia artificial. Antes de pensar en Bender (Futurama) o en Hal (2001 Odisea al espacio), las inteligencias artificiales actuales se parecen mucho más a las de War Games (gran película de los 80′). Estas inteligencias artificiales funcionan como cajas negras, a las que uno le inyecta una cantidad obsena de información para que puedan detectar, estudiar y repetir el patrón del que fueron alimentadas.

Digamos, si a una inteligencia artificial le hago leer 10000 partituras de música clásica durante meses, está va a devolverme una partitura de música clásica. Y probablemente sea de igual o mejor calidad que las ingresadas.

Y aunque el mecanismo para construir estás cajas negras está más que conocido y estudiado, el funcionamiento de estás cajas negras sigue siendo un misterio. En este caso, a la Inteligencia artificial de Faceapp la habrán alimentado con una infinidad de fotos de gente joven y adulta.

El gran desafío que tiene esta tecnología es que actualmente es muy cara. Para hacer funcionar de manera eficiente una inteligencia artificial necesitamos de una (o unas) muy buena placa de vídeo, o mejor dicho, probablemente una granja de éstas. Y esa es la principal razón por la cual estas tecnologías dependen tanto de servidores, ya que son irreales de utilizar en los procesadores y placas de vídeo actuales que tenemos en casa.

La solución a corto plazo no es otra que tercerizar este poder de cómputo, y como sabrá todo webmaster, cuando servidores hay, acompañan los costos. No entiendo que se espera la gente de un servicio gratuito de inteligencia artificial que te regala el uso de la tecnología a cambio de nada.

En el mundo de la informática lo único realmente gratuito es el código abierto. Aquello que es gratis pero código cerrado, no es gratis sino que no estamos enterados como cobran. Ni hablar con el software como servicio.

Pero aún así, seguimos escapando al verdadero dilema: Estos 150 millones de usuarios generaron 150 millones de imágenes de personas que no existe el día de hoy.

FaceApp asusta aún más cuando ponemos “joven”. Aquí vemos a un conocido de estos lares a sus 18 años. Según él era igual.

Es decir que actualmente y gracias a FaceApp, ahora en Internet existen, además de millones de fotos de ancianos reales, millones de imágenes de ancianos falsos. Siendo el usuario común incapaz de poder diferenciar entre uno y otro (salvo si le ponemos la foto de algún famoso como Messi o algún presidente).

Y así como salió una startup de la nada a inyectar imágenes falsas a Internet, puede nacer cualquiera.

No quiero ser pesimista, pero si esto no marca el inicio de la era pos verdad no sé qué más nos falta.

Hace una semana Github retiro de sus repositorios el código de deepnude. Una inteligencia artificial entrenada para agarrar fotos de señoritas y recrear la misma foto pero como dios la trajo al mundo. Aún siendo código libre, esta aplicación en un mundo donde un desnudo puede producir un suicidio, es no peligrosa si no que alarmante. Ni hablar que esté al alcance de todos y aún si la prohibimos y la perseguimos, matemáticamente sabemos que es posible y esperándonos con las puertas abiertas.

Hace 5 años no podías crees en ningún meme, hoy no podes creer en ninguna imagen, en 5 años no podrás creer en ni fin vídeo.
Hoy salvo que tengas a otro humano enfrente, todas nuestras interacciones pueden ser falsas.
¿Queres mas paranoia? hace unos dias salia la noticia que hackers estan entrenando IAs con la voz de CEOs de empresas multinacionales para aprovecharse de la ingenuidad de los segundos a cargo de la empresa para estafarlos en hacer movimientos de dinero a manos equivocadas.

¿Y lo peor? Es que ni siquiera aquellos hábiles en la informática tenemos herramientas. Y salvo algún especialista muy bien entrenado, detectar estos deepfakes es una tarea imposible.

Por eso, recomiendo de ahora en mas en un futuro cercano, cuando un audio, un vídeo o una imagen es demasiado buena o extraña para ser real (especialmente en el ámbito de la política), probablemente sea un deep fake. Mientras tanto los medios hegemónicos buscan  que te preocupes con lo que hacen un par de rusos con tu selfie.

6 COMENTARIOS

  1. Javier

    Me parece muy interesante el enfoque del articulo y algunas de las reflexiones que hace el autor.

    Lamento tener que decir que es una pena que esté tan mal redactado. Hacía tiempo no encontraba en un sitio “serio” algo así de desprolijo. “Aguanté” hasta el final porque me interesa el tema. Hay errores de redacción bastante importantes, algunos pasajes directamente no se entiende o hay que hacer un esfuerzo importante (releer varias veces), ni hablar si lo lee gente que no esté en el tema, porque no lo puede sacar por contexto. Por momentos pareciera que le hubieran dictado el articulo a una “inteligencia artificial” a la que hay que pulirle un par de cosas, jeje.

    Salutes.

  2. Shengdi

    Hace unos días Microsoft mostró lo que la Inteligencia Artificial en Azure era capaz de hacer: crear un holograma de ti mismo y ponerte a hablar con tu voz en otro idioma. Y a ellos sí les aplaude. Ah, claro, es que la IA de Microsoft no va a unos servidores rusos, entonces no son los malos.

    (Aclaro, no tengo nada en contra de Microsoft)

  3. Mauro

    Yo pensé exactamente lo mismo, resulta que ahora les preocupa lo que van a hacer con tu imagen…

    Claro, es que como son rusos seguro que es todo oscuro e ilegal, si viene del MIT o de Harvard esta todo bien porque debe ser una causa noble, ja ja ja.

  4. Luis Eduardo

    Yo quería hacerlo, pero no sabía que aplicación lo hacía.

    Creía que era un filtro de Instagram.

Dejá una respuesta

Please enter your comment!
Please enter your name here