Diariamente utilizamos aplicaciones de inteligencia artificial, ya sea de forma activa (haciendo preguntas a ChatGPT o pidiéndole a un generador de imágenes que nos dibuje como si fuéramos un cuadro renacentista) o de forma pasiva (siendo expuestos a productos posicionados en base a algoritmos, o viendo como la galería de nuestro móvil se organiza por rostros seleccionados mediante el reconocimiento facial).
Pero debemos preguntarnos: ¿realmente sabemos cómo funciona la IA? Y, lo más importante cuando utilizamos algo que no nos está costando dinero: ¿cuál es el precio a pagar por poder utilizarla?
Uno de los expertos que puede responder a estas cuestiones es Ulises Cortés, que lleva más de 10 años trabajando en el Barcelona Supercomupting Center y más de 30 dando clases sobre inteligencia artificial en la Universitat Politècnica de Catalunya. Por tanto, parece la persona perfecta a la que acudir en estos tiempos de incertidumbre en los que la IA se dibuja para muchos como una amenaza y para otros, como la promesa de un futuro brillante.
Según Cortés, es importante distinguir entre la IA como disciplina
científica y las aplicaciones de la inteligencia artificial en las nuevas tecnologías.
«La primera es una disciplina cuyo objetivo consiste en observar el fenómeno que emerge de un circuito húmedo (el cerebro) y luego ver si esto es reproducible con una máquina, en este caso un computador. Mientras que la segunda es un tipo de aplicación muy peculiar (reconocimiento imágenes, reconocimiento de voz, reconocimiento de estructuras sintácticas de todos los idiomas) a través del archiconocido aprendizaje profundo o deep learning», explicó el profesor en el Festival de les Humanitats organizado en Dénia.
Este tipo de aplicación se genera a través de una capacidad muy amplia de cómputo y una ingente cantidad de datos que generan los —también archiconocidos— LLM o modelos masivos del lenguaje, lo que nosotros conocemos como ChatGPT, por ejemplo.
¿Pero hay algún problema con estas formas de aplicación de la IA? Lo cierto es que sí, pero no uno, sino varios.
Para comenzar, la IA supone un problema ecológico y de costo de recursos naturales del que no todo el mundo es consciente. «Hacer una pregunta a un LLM como ChatGPT conlleva un coste de recursos equivalente al gasto de una bombilla de 40 W encendida durante un minuto y la pérdida de 6 litros de agua, ya sea por motivos de refrigeración o porque los espacios donde se almacenan estos centros de cálculo modifican la temperatura del ecosistema», asegura Ulises Cortés.
Sin embargo, aplicaciones como ChatGPT siguen recibiendo una media de 200 millones de preguntas al día, y entre todas estas aplicaciones de LLM pueden llegar a sumar 1.000 millones de preguntas diarias. La cantidad de litros de agua utilizados al día alcanza entonces cotas inimaginables.
Por si no fuera poco, entre los problemas presentes en la IA, está también el de su falsa imagen de autonomía. La inteligencia artificial realmente no tiene intencionalidad o identidad ontológica, es meramente una herramienta. Como dice el profesor, «al igual que un cincel solo puede tallar un David porque lo maneja Miguel Ángel, la IA necesita de alguien que esté al mando y ponga la capacidad y el conocimiento».
Si queremos utilizar la inteligencia artificial para el ámbito de la medicina, tendremos que contar con un equipo de médicos con conocimiento muy profundo y un investigador que pueda traducir sus intenciones a lenguaje de programación. Este proceso de humanización al que a veces es sometida la IA y que le hace parecer autónoma diluye su trazabilidad y la responsabilidad de los ingenieros y las empresas que crean estas aplicaciones.
Por último, también está la importante cuestión de nuestra privacidad. Con respecto a esto, el profesor lo tiene claro: «Cuando una aplicación es gratuita es porque tú lo estás pagando con tus datos». Todos somos productores y proveemos a las grandes empresas con todos nuestros datos, así como los de la gente que nos rodea: hábitos, consumo, localización, horario, etc. Esta es la divisa más poderosa en la actualidad.
Para Cortés, vivimos en una especie de tecnofeudalismo. Algunos viven en el feudo de Apple, otros en el feudo de Amazon, otros en el de Microsoft y otros en el de Tesla. A cada uno le corresponden unas reglas propias que sus habitantes (usuarios) tienen que aceptar, y todos constan de sus CEO, los señores feudales que reúnen más poder y dinero que los presidentes de cualquier estado.
En este contexto se hace obligatorio, entonces, exigir responsabilidad institucional. Para Cortés, «las compañías no respetan la privacidad ni la intimidad, y los gobiernos no pueden aludir a la responsabilidad ni la libertad individual, pues los ciudadanos no tienen una libertad de elección real si no conocen los verdaderos peligros y el alcance de esta tecnología, sobre la cual nunca son informados adecuadamente».
En muchos aspectos, la IA puede ser utilizada de forma peligrosa. Entendemos que, para poder conducir cualquier vehículo, uno tiene que someterse a una serie de pruebas y, de igual manera, para poder acceder a ser técnico de cualquier laboratorio, uno tiene que pasar un arduo proceso de aprendizaje.
Todas estas herramientas están diseñadas para facilitarnos la vida, sin embargo, muchas de ellas, a propósito o por accidente, pueden ser utilizadas para causar daño. Entonces, ¿por qué dejamos que cualquier persona de cualquier edad disponga, sin regulación ni supervisión, de una tecnología como la IA? Como dice el profesor, «solo por el hecho de que podamos hacerlo todo no significa que debamos, y mucho menos cuando hacerlo supone un gasto tan drástico de recursos ecológicos y un tráfico de datos masivo».
Sin embargo, no hay que ser necesariamente radicales, nos dice Cortés. No se exige el fin de la investigación, sino el fin de la experimentación social por parte de empresas que se lucran de forma indiscriminada. Por ello, para más gente cada día, la elección más sabia que puede tomar un individuo sobre estas aplicaciones es, directamente, dejar de usarlas.
Sinceramente, esperaba más profundidad de análisis. Me parecéis el medio perfecto para poner en juego cuestiones como ¿es de verdad inteligencia todo esto, o simple capacidad de compilación? ¿Se está bloqueando por aplastamiento de las grandes corporaciones tecnológicas la verdadera IA? ¿ La generación de estos contenidos contribuye a la desaparición de los análisis críticos procedentes de entornos no digitales, pero también de los digitales marginales? En fin, que siendo crítico con la IA, el artículo podría parecer generado por una aplicación IA. Perdón si parece excesiva mi crítica, pero eso es sano también, seguro. En estadística se descartan los «outliers» o valores atípicos como si no existieran porque son molestos para el análisis. No hagamos lo mismo con las opiniones. Ah, y por lo demás, gracias por vuestro excelente trabajo Yorokobu.