Tienen la apariencia de unas gafas normales de sol, quizá un pelín más grandes de lo habitual. Pero si uno se fija, ve que sobre cada lente, en la parte superior de la montura, hay un secreto (una pequeña cámara) y que de las patillas sale un cable que se conecta a un módulo. Ahí es donde está el algoritmo que trata de obrar el milagro.
Si Jesucristo iba por ahí devolviéndole la vista a los ciegos, el sistema Eyesynth busca algo un poco más prosaico pero igual de importante: transformar la información visual que registran las lentes en un audio comprensible para que el usuario pueda detectar objetos, distancias, formas, y, lo más importante, ganar autonomía personal.
«No tengo familiares invidentes, pero sí gente cercana», responde Antonio Quesada, CEO y fundador de la empresa, ante la recurrida pregunta de sí tiene algún caso de ceguera en su familia que le hubiera llevado a tener esta idea. «Fue un poco por la paradoja de que existan tantos avances tecnológicos y que no hubiera ningún estándar de movilidad para un colectivo tan grande».
Básicamente, las cámaras de la parte frontal registran el entorno tridimensional y convierten esa información en un sonido. A descripción de Quesada, es similar al del rumor del mar y se va transformando o modulando según lo que se vaya grabando.
«Es como la sinestesia, la habilidad que tiene el cerebro de reinterpretar la información de un sentido a través de otro», dice. «Explicarlo de palabra es complicado. Sin embargo, su uso es extremadamente fácil e intuitivo. Escuchar un ejemplo del sonido aislado no serviría de mucho, sería como escuchar hablar a una persona en un idioma que no conocemos».
María José Cervera, una de las usuarias de las pruebas piloto, probó el sistema durante una semana, dos horas al día. Lo describe como estimulante, curioso y creativo. El aprendizaje, como fácil y divertido.
Cree que cuando lo pueda usar siempre, tendrá más autonomía; y no recuerda que el sonido constante interrumpiera su hilo de pensamientos.
Respecto a las ventajas frente a un bastón o un perro lazarillo, su creador destaca los obstáculos aéreos, como ramas o toldos, y la inmediatez de la información.
El sistema se actualiza 60 veces por segundo y tiene un radio de hasta seis metros.
Una prueba de su capacidad transformadora fue el impulso que recibieron del programa Horizon2020 de la Comisión Europea.
Dotado con 77.000 millones de euros, este instrumento financia proyectos de investigación, desarrollo y demostración y los asesora en la etapa de la comercialización. Otros ejemplos dentro de este esquema son un sistema de monitorización de granjas de molinos en alta mar para reducir los costes de mantenimiento, muchos tipos de robótica aplicada o un programa para digitalizar las obras de más de un centenar de museos de toda Europa.
En el caso de Eyesynth, quieren que su modelo comercial sea una mezcla entre las ópticas y los lugares de venta físicos con su tienda online. Aunque no quieren poner una fecha, dicen estar cerca ya de salir al mercado y estiman que su precio estará en torno a los 2.400 euros. «Eyesynth no es solo su sonido; es la suma del audio, del contexto donde nos encontramos, y del propio feedback que nos proporciona nuestro cuerpo al vestir y usar las gafas», sigue Quesada.
«Estamos haciendo un estudio neurológico con algunos de nuestros usuarios con el que queremos demostrar que con el uso de las gafas se crean nuevas conexiones neuronales entre las zonas auditivas del cerebro y el córtex visual».
Quieren probar que en el día a día, cuanto más se use, menos concentración hará falta, menos se notará su presencia en el oído del ciego; que se convertirá en un acompañante natural.
La parte más potente de Eyesysnth no son las gafas ni el algoritmo que transforma la información ni el sonido resultante.
La parte más importante es, con diferencia, el cerebro que decodifica toda la información, que le permite entender el sonido y reconocer objetos, distancias, formas.
Lograr, resumiendo, autonomía personal.