Más allá de los requerimientos que necesitan las apps para su funcionamiento, los usuarios también ‘avanzan de versión’, son cada vez más hábiles y tienen necesidades de interacción con sus teléfonos móviles cada vez más complejas. El desarrollo de los dispositivos inteligentes busca una relación natural entre hombre y máquina. El objetivo se centra en la obtención de respuestas y soluciones con el menor contacto físico posible. ¿Cuánto queda para que no necesitemos decir a nuestro teléfono qué queremos hacer?
La carrera tecnológica en torno a los dispositivos móviles ha establecido siempre uno de sus puntos fundamentales en el desarrollo de hardwares cada vez más potentes, que sean capaces de desarrollar aplicaciones más complejas y exigentes. En realidad, esa búsqueda es inherente a cualquier investigación ligada a la computación.
De un tiempo a esta parte, dando por asumido que el avance en materia de hardware es imparable, la tendencia apunta a que lo que centre los esfuerzos innovadores sea la forma en que se manejan los dispositivos.
Ridley Scott lo contó en 1982. El sueño de que hombres y máquinas se relacionasen sin distinguir, a efectos comunicativos, a unos de otros, es uno de las anhelos tecnológicos que llevan décadas entre ceja y ceja de los científicos. Blade Runner también planteó que la cosa podía tornarse en pesadilla cuando se introduce en la ecuación el libre albedrío. En realidad, ocurría que lo que se pretende es que las máquinas sirvan a los seres humanos. Si el robot posee la hipotética capacidad de racionalizar el entorno que le rodea ya tienes el follón liado y a un androide con dudas existenciales desnudo en una azotea bañada por la lluvia. Pero esa es otra historia.
Rodeos aparte, lo cierto es que el camino trazado transcurre en dirección a la eliminación de barreras físicas entre personas y dispositivos. Apple dio un paso importante con Siri en su iPhone 4S y Samsung quiere subir un par de escalones más intentando conseguir que el Galaxy S III sea capaz de ver qué hace el usuario además de escuchar lo que dice. «Quisimos centrarnos en qué se puede hacer con el teléfono más que en explicar las características técnicas del dispositivo», explica Jesús Guardiola, product manager de Samsung.
El asistente de voz del Galaxy III, el S-Voice, intenta que la comunicación entre el usuario y el teléfono sea intuitiva. Aunque la funcionalidad sigue en continuo desarrollo «hemos conseguido que se pueda emplear un lenguaje natural a la hora de interactuar con el smartphone», declara Guardiola.
Sin embargo, la marca coreana está intentando que las palabras sean innecesarias. El nuevo modelo de Galaxy, que se lanza la próxima semana, incorpora un sensor de imagen que, literalmente, observa si el usuario está mirando a la pantalla para no desactivarla. Además, por medio del acelerómetro y el sensor de proximidad, interpreta gestos para realizar tareas concretas. «Si estás leyendo un mensaje y desplazas el teléfono a la oreja, éste llama automáticamente al autor de ese mensaje», dice Guardiola.
El futuro, que no lo es tanto ya que muchas de estas tareas pueden realizarse ya, es que el smartphone sea el intermediario entre el usuario y el entorno con el objetivo de optimizar las tareas de la vida cotidiana por medio del cloud computing. Por poner un ejemplo sencillo, el teléfono podría programar la alarma del despertador 15 minutos antes de lo habitual si observa que hay un atasco en el trayecto de camino al trabajo. Además, sería capaz de ordenar al coche que sintonizara la misma emisora de radio que estaba sonando en casa.
Al final, más allá de grandes pantallas con asombrosas resoluciones, rápidos procesadores, o toneladas de apps, lo que el usuario quiere es un mayordomo virtual al que, además, no tenga que dar órdenes, que es algo como muy del siglo XIX. Samsung apunta en esa dirección y parece que no será la única marca que así lo haga.