Margaret Boden: «El mayor obstáculo para el desarrollo de la IA es que no sabemos qué hace un cerebro humano»

Inteligencia artificial (Turner, 2017) es un ensayo que analiza la situación en la que se encuentra el desarrollo de la IA escrito por una de las mayores autoridades mundiales en la materia, Margaret A. Boden. Es una ágil historia de los orígenes de esta tecnología y una serie de reflexiones sobre los obstáculos a los que se enfrentará y cómo afectarán a la sociedad y a los seres humanos de forma individual. Todavía estamos muy lejos de crear una inteligencia como la humana, pero los efectos de estas primarias IA no son nada desdeñables.

En la inauguración del Leverhulme Center (CFI), organismo que estudia el impacto de la inteligencia artificial en la sociedad, el recién fallecido Stephen Hawking aseguró que esta será o el mejor o el peor adelanto tecnológico que experimente la humanidad. ¿Está usted de acuerdo con esa afirmación categórica?

En términos generales, sí. Pero creo que se sobrestima la posibilidad de que la IA avance de la forma en la que algunos creen que lo va a hacer. Me refiero a, por ejemplo, Raymond Kurweil, ejecutivo de Google y pionero de la Ley de Rendimientos Acelerados.

Todavía hay muchas limitaciones técnicas en el desarrollo de la IA, pero parece que la mayor de ellas es relativa a la investigación médica: todavía no sabemos cómo funciona realmente un cerebro humano. Con la IA estamos tratando de replicar algo cuya complejidad ignoramos, ¿está de acuerdo?

No, no diría que la mayor limitación es no saber cómo funciona el cerebro. Creo que el problema es no saber qué es, en términos computacionales, lo que el cerebro está haciendo.

Al menos, como ha escrito en su libro, tratar de desarrollar la IA nos ha ayudado a descubrir que la inteligencia humana es más rica y sutil de lo que pensábamos.

Absolutamente. Esa es la mayor lección que la IA nos ha enseñado.

Señala en su obra que es posible un futuro en el que los robots con IA cuiden a los niños, a los ancianos y a los discapacitados, por no mencionar su más que seguro uso como juguetes sexuales. Sin embargo, usted sugiere que ese escenario planteará una serie de problemas que hay que resolver.

Si los niños que se eduquen junto a un robot con IA verán alterados su formación y aprendizaje. O si es ético que los ancianos y los discapacitados estén acompañados por un robot que simula comprensión y empatía, pero no siente realmente ninguna de las dos, lo que podría ser una estafa, un fraude de la asistencia humana. Un panorama negativo.

No, no todo es negativo. Si los robots cuidadores y las niñeras robotizadas se usan con cuidado y no se abusa de ellos, si no se exagera con su presencia, pueden ser muy útiles. Pero aportar entretenimiento a la gente mayor es una cosa y darles una conversación empática y compañía es otra muy distinta. Esto no es que no se deba hacer, es que es un ataque a la dignidad humana.

Además de una manera muy desagradable de quitarse del medio a la hora de visitar a los ancianos por parte de familiares vagos. Por supuesto, me doy cuenta de que alguna gente no tiene familiares vivos que puedan visitarlos, pero sería mejor si la sociedad se organizara para que reciban visitas de gente que no sean sus familiares. Este debate ético cada vez se está planteando más seriamente y creo que se le debería prestar más atención.

margaret-boden-interior

Quizá, el futuro de la IA podrían ser robots que te acompañen a lo largo de tu vida, pero como fuente de información. Algo que sepa más sobre ti que tú mismo, que se anticipe a tus deseos y planes y nos ayude a gestionar nuestra propia vida. Una especie de hermano, padre y… esclavo.

Creo que es una idea horrorosa. Sin compartir con nosotros la condición humana, ¿cómo podrían relacionarse esos robots con nosotros, si no fuese de una manera muy superficial?

Sobre el fenómeno del síntoma del «valle inquietante», cuando la gente se siente afectada, inquieta; cuando se encuentra entre robots que parecen humanos, pero no son completamente humanos, ¿se ha investigado hasta el punto de averiguar qué consecuencias podría tener el fenómeno en la salud mental de las personas?

Sí, se ha estudiado mucho. Google podría sacar montañas de material al respecto. No sé qué sería lo mejor.

En su libro sostiene que el personaje de Star Trek, el señor Spock, una especie alienígena inteligente que carecía de sentimientos, es evolutivamente imposible.

Claro, si se supone que nunca ha tenido ninguna emoción, sí, es un ser evolutivamente imposible. El tipo de inteligencia que tiene cuando claramente está planeando, eligiendo un plan a partir de una serie de posibilidades alternativas y ciñéndose a ese plan, es algo que requiere de inteligencia emocional.

Se puede consultar a este respecto el caso de Elliott, un paciente con daños cerebrales que estudió el neurólogo Antonio Damasio  (una persona normal exitosa en los negocios, que, al extirparle un tumor, perdió tras la operación la facultad de sufrir o gozar; después, como persona sin sentimientos, no empezó a razonar mejor, sino al revés.

Le fue peor, no podía valorar lo que hacía y acabó mal porque perdió la capacidad de tomar decisiones, aunque su cociente intelectual y su memoria no se hubiesen visto afectados).

Alguien me dijo una vez, ignoro si es cierto o no, que el señor Spock se suponía que había perdido sus emociones después de nacer. En ese caso, las habría desarrollado correctamente. Pero si no las hubiera tenido como adulto, se encontraría en el mismo caso que Elliott, y su inteligencia se habría destruido de la misma manera que lo hizo la de Elliott.

Descarta la posibilidad de que pueda darse un desarrollo exponencial de la IA, es decir, alcanzar un prototipo de IA tan inteligente que pueda seguir creando IA más inteligente y así sucesivamente. ¿Y el mercado?

Las necesidades que aparecerán en todos los campos tecnológicos. ¿No podrían ser la causa de un desarrollo exponencial de las capacidades de la IA?

Las necesidades del mercado no pueden generar ideas científicas. Si las ideas científicas creativas ya son demasiado difíciles para nosotros (los científicos), da igual cuántos empresarios ambiciosos las quieran: no sucederán. Habrá, por supuesto, grandes avances en IA, pero una superinteligencia, ni siquiera una inteligencia a nivel humano, no va a poder fabricarse en mucho mucho mucho tiempo. Por no decir jamás.

Quizá la mayor aprehensión que la humanidad pueda tener con el desarrollo de la IA es que aparezcan máquinas que puedan ser impredecibles. Se tiene miedo a la incertidumbre.

La gente, y subrayo la gente, puede hacer muchas estupideces. Alguien podría desarrollar un robot impredecible y dañino. Pero solo un completo psicópata podría instalarle el odio de los seres humanos y no hay ninguna razón para que el robot lo desarrolle por sí mismo. Pero, por supuesto, hay mucho loco por ahí. Mira los abusos que se producen en Twitter, por ejemplo. Son los humanos, sean psicópatas o no, los que están al volante.

¿Alguna película de ciencia ficción ha representado con precisión los avances en IA a los que realmente se pueden llegar?

¡Paso!

por

Cranio Dsgn

Último número ya disponible

#141 Invierno / frío

Sobre nosotros

Yorokobu es una publicación hecha por personas de esas con sus brazos y piernas —por suerte para todos—, que se alimentan casi a diario.
Patrick Thomas

Suscríbete a nuestra Newsletter >>

No te pierdas...