Entrevista | Julio Gonzalo Catedrático del área de Lenguajes y Sistemas Informáticos de la ETSI Informática de la UNED

"La inteligencia artificial es intuitiva, sin capacidad de pensamiento racional"

"En mis charlas de divulgación, más de la mitad de la audiencia piensa que ChatGPT es más listo que los humanos, algo muy exagerado"

Julio Gonzalo, experto en inteligencia artificial.

Julio Gonzalo, experto en inteligencia artificial. / Miguel Ángel Lorenzo

Beatriz Blanco García

Beatriz Blanco García

El catedrático del área de Lenguajes y Sistemas Informáticos de la ETSI Informática de la UNED, Julio Gonzalo, fue el encargado esta semana de inaugurar el curso sobre "Inteligencia artificial para el día a día" que ofrece la UNED de Zamora, impartiendo una charla sobre la IA generativa, ya implantada en la sociedad, y sobre la que surgen todavía dudas y muchos temores.

–Parece ya demostrado que la inteligencia artificial no es una moda pasajera. ¿Ha venido para quedarse?

–No hay escapatoria posible, efectivamente (risas). Donde hay datos, habrá inteligencia artificial, eso está claro. Y es verdad que la discriminativa, la que hace predicciones, ya hace mucho tiempo que está entre nosotros. La novedad de la generativa es que es muy reciente, me refiero a esa que puede generar imágenes, vídeo, audio, texto, código… Prácticamente, lo que se le pida.

–¿El conocimiento sobre cómo funciona ayudaría a que se disipe el temor que existe en algunos sectores?

–Hay que distinguir dos tipos de temores: los justificados y los injustificados. Por un lado, se ha fomentado un temor a una súper inteligencia que nos domine a todos, como hacía Skynet en la película "Terminator" y lo cierto es que es curioso, pero hay mucha gente que piensa que eso puede producirse. En mis charlas de divulgación suelo preguntar al principio sobre este tema y casi siempre más de la mitad de la audiencia piensa que ChatGPT y compañía son súper inteligencias, más listas que los humanos. Es algo sorprendente que en estos momentos haya gente que piense así. Incluso expertos, algunos de renombre, piensan que con estas máquinas ya ha emergido la inteligencia y, efectivamente, son más listas que nosotros. Ese es un miedo que a gente de mi área le parece que está bien fundamentado, pero personalmente considero que es una creencia completamente exagerada. No digo que en un futuro lejano pueda darse, pero, de momento, está muy lejos de ser un temor realista.

–¿Y qué pasa con ese miedo justificado?

–Me refiero al temor de cómo la inteligencia artificial en general trastoca nuestras vidas. Ese temor es completamente válido, porque es verdad que las está transformando, tanto para bien como para mal. Se trata de una revolución tecnológica enorme, como lo fue en su momento el teléfono móvil, que nos ha traído muchísimas cosas buenas y también muy malas. Y el móvil, combinado con la inteligencia artificial, se eleva al cuadrado. Los temores ahí son completamente fundamentados.

–¿En qué sentido?

–Por un lado, por cómo afecta a nuestra forma de vivir y a nuestra sociedad, con cosas tan tontas como los algoritmos de recomendación, que deciden lo que vas a leer cuando entras por ejemplo en Facebook, o lo que te va a devolver el buscador de Google, o los contenidos que te va a recomendar YouTube, que, en principio, están diseñados simplemente con el propósito de satisfacer al usuario lo máximo posible. Pero todo tienen efectos colaterales.

–¿Cómo cuáles?

–Pues, por ejemplo, igual no habría tanto terraplanismo si YouTube no detectara que los vídeos terraplanistas tienen mucho éxito y no lo recomendara tanto. La inteligencia artificial se basa en el aprendizaje máquina, en particular la generativa. Es decir, aprende de nosotros y luego interacciona con nosotros. Donde hay humanos de por medio, la cosa se complica, y si están en la entrada y la salida, se complica más todavía. Yo, que trabajo en el área del lenguaje, y que para mí lo más cercano son tecnologías como el ChatGPT o como Gemini o Cloud, que son sus primos hermanos, entiendo que han aprendido leyendo todo lo que hemos escrito y todas las cosas con las que hemos interaccionado públicamente. Luego hablan con nosotros y nos encontramos que es una inteligencia artificial intuitiva que no tiene capacidad de pensamiento racional, aunque lo parezca. Según lo que le preguntes, da el pego totalmente, de ahí que la gente piense que es más lista que nosotros y sea digna de confianza, te puedes fiar de lo que te cuente, porque te lo dice con mucha autoridad. Pero también te lo dice tu cuñado en la cena de Navidad y cuando rascas un poco y eres experto, te das cuenta de que no sabe tanto, por ejemplo, de vinos. Pues con la inteligencia artificial nos pasa lo mismo.

–¿Qué consecuencias puede tener esa forma de acoger la inteligencia artificial?

–Ya está distorsionando un poco el mundo. Primero, el sistema educativo está distorsionado, porque los estudiantes a los que no les apetece aprender, les encargan las tareas a su becario favorito que está 24 horas al día dispuesto a resolverte cualquier trabajo, que en muchos casos puede que te lo haga bien, porque cuando son cosas que ha visto miles de veces, tiende a reproducirlas con bastante fidelidad. Pero rompe el sistema educativo por dentro, siendo muy difícil detectarlo y después saber qué va a pasar con estos estudiantes que no se ven obligados a aprender, a analizar y a entender un texto, sintetizarlo, dar su punto de vista y su opinión. No sabemos lo que va a pasar, pero no tiene buena pinta.

–¿En qué otros ámbitos de la sociedad puede dar problemas?

–Tenemos "influencers" que te dicen que ChatGPT es fantástico para hacerte una dieta personalizada y luego la gente enferma, o incluso una rutina de ejercicio físico solo poniendo cuánto pesas y poco más. Así es como se producen lesiones, porque, como comentaba antes, parece un experto, pero no lo es. También ha habido casos de abogados que en su escrito al juez citan jurisprudencia que no existe y es porque le han encargado a ChatGPT que lo escriba y está claro que se inventa muchas cosas. Cuanto más especializado es el tema por el que preguntas y menos ha leído, las probabilidades de que se invente las respuestas aumentan.

–¿Se peca de falta de información, es la consecuencia de ese mal uso?

–Más que falta de información, hay falta de información de calidad y un exceso también, sin distinguir lo que es verdaderamente importante. Y esto, en parte, es responsabilidad de los investigadores. Los científicos suelen tener dificultades de explicarse a los ciudadanos en general, porque suelen hablar en su jerga técnica y luego hay un exceso de ruido. Por debajo hay preocupaciones muy legítimas, porque como cualquier tecnología muy rupturista y poderosa como esta, siempre tendrá muchas consecuencias, tanto positivas como negativas.

–Se podría comparar a ChatGPT con un niño al que hay que ir enseñando para que aprenda. ¿Se puede utilizar este sistema para conseguir un beneficio, en positivo?

–De hecho, eso es lo que ocurre con estos sistemas. Primero, leen todo lo que hay escrito, cuanto más, mejor. En ese proceso de lectura aprenden a dominar el lenguaje, a relacionar unas palabras con otras y un poco de semántica, es decir, entender cuándo dos términos significan más o menos lo mismo. Pero luego viene la segunda parte del proceso, en el que ya con profesores les dicen lo que se tienen que contestar o no, la información que es útil o la inapropiada. En esa segunda parte, ya cada modelo de lenguaje, que es como se llama estos sistemas, adquieren las características y forma de contestar de su dueño. Es decir, que sí se les puede enseñar, pero siempre hay que tener en cuenta que no aprenden exactamente como los humanos, porque solo tienen la parte intuitiva pero no la de pensamiento racional. Por eso digo que hablan de oídas, porque son todo procesos intuitivos. Estas máquinas no tienen la capacidad de reflexionar, esa es la razón por la que siempre tardan lo mismo en contestar a todo, porque simplemente van generando la palabra más probable a partir de las anteriores. Así que, aunque tú le plantees un problema dificilísimo, tardan lo mismo que si les preguntas una duda trivial.

–¿Se está utilizando ya la inteligencia artificial para ámbitos científicos con resultados esperanzadores?

–Por supuesto que hay muchos usos de este tipo en la actualidad. Ahora estamos viendo un progreso enorme en biomedicina, porque cerebros con más o menos una estructura muy similar a la que usa ChatGPT están especializándose en predecir las estructuras de las proteínas. Algo que antes significaba meses de trabajo y una inversión enorme de dinero, ahora ya no hay que hacerlo, porque hay un sistema de DeepMind que es capaz de predecir la estructura de todas las proteínas relevantes sobre la tierra. Esto es un avance gigantesco para entender enfermedades y diseñar fármacos, porque la estructura de proteínas es la que permite predecir qué va a ocurrir y cómo evitarlo. Ahí tenemos un campo enorme de aplicación netamente positiva, ayudando a que el desarrollo de fármacos sea más rápido y más barato. En otro ámbito totalmente diferente, en Reino Unido, con un cerebro artificial similar a ChatGPT, se ha conseguido predecir la demanda de consumo de electricidad de la red nacional de energía, de tal manera que se ha conseguido reducir muchísimo el gasto, entre un 30 y un 40%, con lo que eso supone. Los ejemplos son incontables, porque en cualquier área de conocimiento donde haya datos puede haber una inteligencia artificial usándolos para hacer predicciones que a veces son mejores que las humanas. Por ejemplo, en la interpretación de electrocardiogramas, un experto es capaz de detectar veinte señales diferentes, mientras que una máquina puede llegar a más de doscientas, por lo que puede averiguar más cosas.

–¿A qué nivel está España en inteligencia artificial?

–En general, Europa entera está por detrás de Estados Unidos y China. Pero es que además la aproximación filosófica es muy diferente. La inteligencia artificial moderna, que es aprendizaje de máquina, aprende datos. En Estados Unidos los datos se asumen que son de las corporaciones y en China del Estado, pero en Europa son de los ciudadanos, así que lo único en lo que despuntamos es en legislación y regulación. Por un lado, está muy bien, porque efectivamente hay muchos aspectos éticos que son cruciales, y la inteligencia artificial es tan poderosa que hay que desarrollarla con cuidado y respeto de los ciudadanos. La postura de Europa en ese aspecto es absolutamente loable, pero todo tiene su reverso.

–¿Cómo cuál?

–Hacer investigación e innovación en inteligencia artificial en Europa es más difícil que en estas dos potencias mundiales, por eso vamos más despacito.

–¿La legislación va demasiado lenta en este ámbito?

–Legislar la inteligencia artificial me parece una de las cosas más difíciles, porque avanza vertiginosamente y además es una tecnología que ni siquiera los que la han desarrollado la saben explicar. En general, cuando se ha hecho una revolución tecnológica en la humanidad, el invento estaba claro cómo se había diseñado y para qué servía, pero el caso de la inteligencia artificial, especialmente la generativa, sirve para todo y para nada, por lo que es mucho más confuso. Además, hay propiedades emergentes, cosas que parece que sabe hacer, pero para lo que no ha sido entrenado ni se le ha enseñado. Ni siquiera los que la han diseñado saben para qué sirve, por lo que es complejísimo legislarla, cada semana surgen aplicaciones nuevas, se reinventa a sí misma y adquiere capacidades nuevas. En definitiva, es realmente complejo. En Europa la legislación siempre va por detrás de la realidad, pero en el caso de la inteligencia artificial mucho más, aunque, al menos, hay una preocupación mayor y un avance más rápido que en Estados Unidos y China.

Suscríbete para seguir leyendo