Hay veces en las que la tecnología más disruptiva se esconde detrás de las aplicaciones más estúpidas. Un buen ejemplo es el carísimo desarrollo de reconocimiento facial en el que trabajó durante años el equipo de Snapchat. Para que puedas hacerte una foto y ver una cara vomitando arco iris, o unos inmensos ojos con brillos, hay todo un entramado de complejos algoritmos trabajando al servicio del ocio milenial.
La cosa puede parecer sencilla, pero no lo es tanto: la app debe ser capaz de reconocer en tiempo real las características del rostro del usuario y ubicar dónde están los rasgos distintivos de la cara –los ojos, la boca, la frente–. El objetivo es encajar la imagen real con un filtro sobrepuesto.
Las posibles aplicaciones de algo así son enormes. De hecho, cuando Snapchat aún reinaba y se permitía lanzar proyectos como las Spectacles –las gafas que se vendían de forma efímera a través de máquinas de vending– se especuló con que se escondía un proyecto secreto: entrenar su tecnología de reconocimiento facial. Con el tiempo más bien parece que la cosa fue una carísima acción de marketing, propia de unos tiempos de bonanza ya lejanos.
El último en hacer algo similar fue Apple. Cuando Tim Cook salió al escenario a presentar el nuevo iPhone X, el teléfono llamado a revolucionar el mercado tras un tiempo de estancamiento innovador, primero presumió de tecnología y especificaciones… y luego anunció una aplicación más bien kitsch para poner a trabajar su potente algoritmo de reconocimiento facial.
Lo de los emoticonos animados que hacen que emojis en 3D hablen y gesticulen como personas reales podría parecer una boutade destinada a público joven –o al mercado asiático–, pero en realidad esconde algo mucho mayor. Es la cara comercial de un nuevo segmento de mercado trabajado por la compañía, desde la realidad aumentada hasta el reconocimiento facial.
Los filtros y los animojis son la cara amable, pero también hay otras caras que empiezan a verse ahora. A partir de un subforo en Reddit, un heterodoxo foro del que nacen ideas geniales y aberraciones peligrosas, un grupo anónimo de desarrolladores dio a luz un complejo software de reconocimiento facial capaz de superponer imágenes, al estilo de lo de Snapchat y Apple, pero con imágenes reales.
Seguramente hayas visto alguna de las criaturas nacidas de la creación, básicamente vídeos pornográficos protagonizados por personajes conocidos. La cuestión, claro está, es que las películas no eran reales. Bueno, las películas sí lo eran, pero habían implantado la cara de alguien famoso encima del rostro de la actriz porno de turno.
El resultado era tan convicente que asustaba. El ingenio utilizaba software libre creado por el departamento de inteligencia artificial de Google que se había hecho público tres años atrás y que habían logrado entrenar para refinarse a través del aprendizaje (machine learning, le llaman). Todo ello, empaquetado y online para descarga gratuita bajo el nombre de FakeApp.
Lo pornográfico era el mascarón de proa, pero las aplicaciones van mucho más allá. Por ejemplo, colocar a un líder político haciendo o diciendo algo que jamás han dicho o hecho.
En pleno apogeo de la construcción de noticias falsas como herramienta de manipulación política los motivos de preocupación se vuelven evidentes. Las posibles repercusiones de tener una herramienta para crear bulos casi indistinguibles son incalculables.
Hasta ahora se había tenido que convivir con el riesgo de que alguien inventara o sesgara el contenido de un artículo. O con la manipulación más o menos detectable de una fotografía. Incluso con alguna captura de imagen en la que se muestra algún titular de prensa que en realidad nunca ha existido y que si buscas nunca encontrarás.
Podemos aprender a protegernos de las noticias falsas, pero ¿cómo podemos distinguir un vídeo manipulado cuando parece tan real como el original? Julio Montes, cofundador de Maldita.es, da alguna clave al respecto. «Cuanto más impactante sea el vídeo, es más fácil que no sea real. Campañas de tipo ‘compártelo’, ‘que se difunda’ o ‘que se sepa’ son llamadas virales que pueden hacerte sospechar», advierte. «Conocer que existen estas herramientas para hacer ‘el mal’ ayuda a tener una mente más crítica. Si esto verdaderamente se convierte en un problema, surgirán también herramientas de reconocimiento para detener estos fakes de manera rápida. O, al menos, eso esperamos», explica.
Se suelen cargar todas las tintas en el peligro de las herramientas, o en la culpabilidad de quienes las usan para manipular, pero también hay cierta responsabilidad por parte del receptor: tú también tienes la culpa de que te la cuelen si bajas la guardia o te dejas engañar. «Hay que apostar por la inversión en herramientas para que no te la cuelen. ‘Los malos’ van un paso por delante ahora mismo, y hay que igualar esa batalla. Y educación y tecnología son claves, porque la otra opción, la punitiva mediante cambios en la legislación, seguro que no acaba bien», reflexiona Montes.
«¿Cómo educar? Lo primero, concienciar de que no hay que compartir algo si no se está seguro de algo. Dar a conocer que existen estas herramientas es también una gran vacuna: cuanto más sepamos acerca de qué herramientas existen, cómo se viralizan los contenidos y quién los mueve en redes, más cerca estaremos de minimizar la repercusión de la desinformación», concluye.
En cualquier caso, no todo tiene por qué ser malo. Un software de ‘simulación’ como ese puede servir para cosas más constructivas, por ejemplo en el campo de la educación o de la creación cultural. Incluso a alguien que se dedica a desmentir bulos se le ocurren cosas buenas que hacer con algo como FakeApp: «Seguramente sea la única manera de verme marcándole un gol al Real Madrid en el Bernabéu con la camiseta del Atleti… y el escudo de verdad».