ยฟDe verdad las mรกquinas van a poder pensar como nosotros?

En la tecnologรญa, como en la vida, hay modas innovadoras y modas recurrentes. Se habla mucho de pronto de bitcoins y derivados, igual que de pronto blockchain es la palabra talismรกn en el mundo de la seguridad. Pero pocas ramas del desarrollo tecnolรณgico con una vida tan dilatada como la realidad virtual, solo comparable a la forma en que la realidad virtual o aumentada van yendo y viniendo de los titulares cada cierto tiempo. Y asรญ desde hace dรฉcadas.

Porque posiblemente la idea de la inteligencia artificial sea la madre del cordero del desarrollo tecnolรณgico. La capacidad de crear una mรกquina que pueda no ya ejecutar รณrdenes, sino directamente pensar y desarrollar estrategias de actuaciรณn autรณnomas respecto a los humanos.

La posibilidad de que las mรกquinas piensen no es, ni mucho menos, una ocurrencia reciente. La legendaria Metrรณpolis de Fritz Lang en 1927 ya planteaba una idea a la que Isaac Asimov darรญa desarrollo no solo literario, sino tambiรฉn teรณrico. Y claro, fue pensar que quizรก algรบn dรญa podrรญamos crear representaciones de nosotros mismos en una versiรณn mejorada y echarnos a temblar.

Quizรก por eso el propio Asimov enumerรณ sus conocidas leyes de la robรณtica para prevenir males mayores. A saber (y ojo porque el orden es importante): no atacar a los humanos, obedecer sus รณrdenes y protegerse a sรญ mismos. Cuando lo hizo estรกbamos en 1942, muy lejos siquiera de imaginar un robot parecido a los humanos y muy cerca de perpetrar la barbaridad menos humana de la historia de la humanidad.

Ahora, segรบn nos dicen, la cosa es bien distinta.

Seguro que en estos dรญas has visto el รบltimo vรญdeo de Boston Dynamics, la empresa de desarrollo robรณtico que en su dรญa comprรณ Google y que suele fascinar al mundo con sus progresos. En รฉl un robot pide ayuda a otro para abrir una puerta. La reacciรณn de muchos al verlo ha sido similar: vamos a morir.

Inteligencias poco inteligentes

Sin embargo, la realidad actual de la inteligencia artificial no da para tanto. Actualmente se trabaja en el desarrollo de algoritmos complejos que ayuden en la resoluciรณn de problemas sencillos. No se trata, por tanto, de un pensamiento creativo como pueda ser el humano, sino de anรกlisis de parรกmetros, registro de tendencias y aplicaciรณn de respuestas. Una especie de ayuda proactiva, como cuando Google te da opciones en funciรณn de dรณnde estรฉs o quรฉ momento sea, pero a gran escala.

En la tecnologรญa mรกs inmediata a nuestro alrededor las aplicaciones son diversas. Una visiรณn muy rudimentaria serรญa precisamente la de los asistentes personales, ya sean a travรฉs del telรฉfono mรณvil o de los altavoces inteligentes que la industria tecnolรณgica quiere instalar en tu casa. Algo mรกs avanzado serรญa la ยฟinminente? comercializaciรณn de sistemas de conducciรณn autรณnomos para los coches.

Ambas expresiones no constituyen el desarrollo de una inteligencia artificial al uso, ya que no se han creado entes pensantes. De hecho, primero habrรญa que definir exactamente quรฉ es ser inteligente. Sin embargo, sรญ empiezan a visibilizar algunas de las limitaciones y problemas que esta tecnologรญa puede conllevar.

Los ensayos con inteligencias semรกnticas en redes sociales, por ejemplo, han dado como resultado que se acaben adoptando posturas antisociales, como por ejemplo el racismo. Eso probarรญa, de hecho, que esas inteligencias no son realmente inteligentes. El motivo: si el maestro (nosotros) tiene un mal hรกbito y el alumno lo copia, implica que no tiene capacidad crรญtica o de aprendizaje. El contexto influye โ€“baste ver la educaciรณn y los valores que se transmiten por el entornoโ€“, pero en la capacidad de trascender eso y optar por otras direcciones reside una de las manifestaciones del pensamiento.

En el otro extremo, los sistemas autรณnomos de conducciรณn han revelado la paradoja a la que se enfrentarรกn las mรกquinas. Porque ยฟquรฉ pasarรญa si para evitar un accidente debo provocar otro? Es decir, ยฟcรณmo actuar si se debe tomar una decisiรณn que implique daรฑar a un humano o a otro de forma inevitable? Por eso los investigadores entienden que, aunque conlleve contradecir a Asimov, hay que enseรฑar a las mรกquinas a matar. Y eso da miedo.

Descartar la idea de que una inteligencia artificial sea inocua para la sociedad abre ante nosotros un escenario terrible que tantas veces han tratado las ficciones literarias y cinematogrรกficas: la opciรณn de que una mรกquina pensante acabe entendiendo que su propia supervivencia depende de liberarse del yugo opresor de su creador. Un creador, por cierto, que le relegarรญa a las peores labores de producciรณn mecรกnicaโ€ฆ y que en realidad es inferior.

La huella del cine: del control a los sentimientos

Por eso es recurrente la idea del control en el cine. Aparecรญa, por ejemplo, en la รฉpoca 2001: Odisea en el espacio, donde el sistema que controlaba la nave tomaba decisiones en contra de la tripulaciรณn para โ€“supuestamenteโ€“ cumplir con su cometido, encomendado precisamente por humanos.

Mucho mรกs moderna era la (malรญsima) Trascendence, que apuntaba en una direcciรณn innovadora: la traducciรณn de una inteligencia humana a un sistema computacional que, partiendo de esa base, se ampliaba y organizaba para subsistir. De la cinta se desprenden dos ideas interesantes en lo filosรณfico: una, que la inteligencia pura siempre se entiende como desprendida de los rasgos de humanidad โ€“la mรกquina se come al humanoโ€“; dos, que las mรกquinas, disciplinadas y prรกcticas, siempre se organizarรญan en una sociedad de colmena, coordinada y eficiente, donde la clave reside en la capacidad de replicarse a sรญ misma.

https://www.youtube.com/watch?v=1gSUx07DFbI

Las cintas mรกs clรกsicas de la ciencia-ficciรณn, sin embargo, ahondan en la visiรณn mรกs negativa de lo que la inteligencia artificial pudiera suponer. Es el caso de Terminator o Matrix, que arrojan un futuro en el que las mรกquinas controlan todo y atacan a los humanos como forma de defenderse.

En ambas, sin embargo, se otorga cierta humanidad a las mรกquinas. En Terminator, por ejemplo, hay mรกquinas programadas para defender a los humanos que actรบan contra los intereses de su propia โ€“digamosโ€“ especie. Esa dialรฉctica de bandos supone en sรญ misma cierta inteligencia, ya que la capacidad de discrepar de visiones รบnicas es un rasgo necesario a nivel evolutivo โ€“y si no, que se lo digan a las hormigasโ€“. Una visiรณn mรกs amable de la misma dicotomรญa aparecรญa, por ejemplo, en la clรกsica Cortocircuito.

En Matrix, por su parte, hubo un intento de acuerdo y convivencia antes de la guerra, segรบn se narra en Animatrix. Solo el miedo y la violencia humanas habrรญan provocado el exterminio final. No es solo que los humanos fuรฉramos una amenaza, sino que pasarรญamos a ser una forma de energรญa para su propia subsistencia.

La visiรณn โ€˜buenistaโ€™

El debate sobre el futuro de la inteligencia artificial tiene, como casi todo, dos lados. Tambiรฉn en lo cientรญfico. Stephen Hawking es la voz del miedo a lo que percibe como el mayor riesgo jamรกs imaginado de extinguir la raza humana. Junto a รฉl, voces como la de Bill Gates o Elon Musk, el hombre del momento, observan con temor la posibilidad de que llegue el dรญa en que las mรกquinas aprendan a pensar por sรญ mismas.

En el lado contrario, autores como Ray Kurzweil, que ven en la futura ayuda de las mรกquinas un garante para un futuro mejor en el que la enfermedad o los problemas de producciรณn desaparezcan para siempre.

En el cine esa doble visiรณn tambiรฉn existe. Basta ver cรณmo en Wall-E los robots โ€“de nuevo representados como sirvientesโ€“ acaban siendo protagonistas de una rebeliรณn โ€“de nuevo contra otra mรกquinaโ€“ para ayudar a los humanos a sobrevivir.

En Star Wars, por poner otro ejemplo, las mรกquinas constituyen en sรญ mismas una civilizaciรณn, con una jerarquรญa interna y unos intereses propios diferenciados de otras mรกquinas. Son, en cualquier caso, usadas en el complot de la primera trilogรญa por una รฉlite humana para la consecuciรณn de sus objetivos polรญticos. Pero, a su manera, tambiรฉn muestran pensamiento complejo, lealtades y hasta sentimientos.

Esa es precisamente otra de las claves del dilema. ยฟEs posible una inteligencia avanzada en convivencia con los sentimientos? En la forma en la que se ha representado la inteligencia absoluta que podrรญa conllevar la apariciรณn de mรกquinas pensantes, se suele priorizar un pensamiento prรกctico, liberado de las posibles rรฉmoras que suponga el actuar de una forma emocional (esto es, poco racional).

Sin embargo, otras cintas han abordado ese tema con notable solidez provocando, si cabe, mayor incomodidad que cuando se plantea la idea del exterminio. En AI, por ejemplo, se plantea que un niรฑo robot quiera ser querido y tratado con normalidad, mientras que en Her se aborda la posibilidad de enamorarse de un programa creado, precisamente, para satisfacer necesidades.

Los instintos y los errores

Con todo, hay dos รบltimas barreras de humanidad que una inteligencia artificial deberรญa abordar para ser completa. La otra, en la lรญnea de la tercera ley de la robรณtica, se basarรญa en la propia supervivencia. No solo en tanto en cuanto implique aniquilar a la raza humana para eliminar amenazas, sino como forma de pensamiento complejo a travรฉs de la conciencia de sรญ mismo.

Es, por ejemplo, lo que se plantea en el รฉpico diรกlogo final de Blade Runner, en la trama de fondo de Yo Robot o en la brillante estrategia de Ex Machina. En esa cinta, de corte mucho mรกs humilde que las superproducciones citadas hasta ahora, una mรกquina analiza y explota las debilidades de su interlocutor humano para lograr escapar de su prisiรณn. Lo hace, claro, superando antes el llamado test de Turing, la prueba experimental que se plantea para determinar dรณnde desdibujar la frontera entre mรกquinas y humanos. Algo que, por cierto, ya ha pasado (mรกs o menos)

https://www.youtube.com/watch?v=XYGzRB4Pnq8

La รบltima frontera para evaluar si realmente una inteligencia robรณtica es homologable a la nuestra es, sin embargo, la falibilidad. Sirva un ejemplo: pocas cosas son mรกs aburridas que jugar a algo contra una mรกquina que falla solo de forma aleatoria y siempre programada. Lo emocionante del juego es, precisamente, que no haya nada absolutamente imposible.

Y quizรก esa sea la clave. Los humanos somos inteligentes e imperfectos. Tomamos decisiones errรณneas, incluso autodestructivas. Comemos demasiado, fumamos, bebemos y hacemos cosas que atacan nuestra propia ley humana, daรฑรกndonos a nosotros mismos. Y tal vez eso sea lo que nos asusta de las mรกquinas: ellas, si algรบn dรญa logran ser inteligentes, posiblemente no sean capaces de emular nuestra falta de inteligencia.

1 Comment ยฟQuรฉ opinas?

  1. La gran pregunta es: ยฟexiste algo que excuse la remisiรณn ensu evolucion? llegamos al fondo del asunto, y lo mejor de todo es que seva a poder extraer de ello una increรญble lecciรณn para prevenir y plantar cara a la realidad

Comments are closed.

รšltimo nรบmero ya disponible

#141 Invierno / frรญo

Sobre nosotros

Yorokobu es una publicaciรณn hecha por personas de esas con sus brazos y piernas โ€”por suerte para todosโ€”, que se alimentan casi a diario.
Patrick Thomas

Suscrรญbete a nuestra Newsletter >>