Te recomiendo escuchar el episodio T05E26, «¿Cómo regular la IA y garantizar su beneficio social y medioambiental?», 15 jun 2023 [14:57 min.], del programa de radio “Ciencia para Todos”, en el que participo junto a Enrique Viguera (Universidad de Málaga), coordinador de Encuentros con la Ciencia. Esta sección semanal del programa “Hoy por Hoy Málaga”, que presenta Esther Luque Doblas (o en alguna ocasión Isabel Ladrón de Guevara), se emite todos los jueves en la Cadena SER Málaga (102.4 FM) sobre las 13:45. Enrique y yo intervenimos desde nuestras propias casas.
Entrevistamos a Antonio Diéguez Lucena, catedrático de Lógica y Filosofía de la Ciencia del Departamento de Filosofía de la Universidad de Málaga. Experto en filosofía de la tecnología, está preparando un nuevo libro sobre este tema, con énfasis en la regulación y el control de estas inteligencias artificiales. Al hilo de que en el Parlamento Europeo ya se inició el proceso para regular la inteligencia artificial.
Puedes escuchar el episodio en Play SER, «¿Cómo regular la IA y garantizar su beneficio social y medioambiental?», 15 jun 2023 [14:57 min.].
Esther: Ya nos queda un solo programa antes de las vacaciones. Esta semana se ha celebrado en Málaga el DES-SHOW (Digital Enterprise Show), séptima edición, segunda en Málaga, dedicado a la transformación digital de las empresas. En la actualidad la inteligencia artificial está de moda y parece que va a revolucionar toda nuestra sociedad. Francis, Enrique, ¿qué nos podéis contar sobre estas tecnologías?
Francis: Los avances recientes en inteligencia artificial, en especial los llamados modelos de lenguaje grandes, han sido espectaculares. El modelo de lenguaje GPT de OpenAI se lanzó en 2018 sin pena ni gloria, como GPT-2 en 2019. GPT-3 en 2020 empezó a atraer mucha atención entre los expertos. Pero el público general no ha descubierto estas herramientas hasta la llegada de GPT3.5 (entrenado con conocimiento hasta septiembre de 2021), al que se puede acceder desde chatGPT.
La última versión GPT4 se entrenó con información hasta finales de 2022, pero solo se puede acceder desde la versión de pago chatGPT+ (que incluye cientos de plugins para aplicaciones específicas). Este año han aparecido miles de herramientas de inteligencia artificial para resolver todo tipo de problemas, como generar imágenes y vídeos, componer música y letras de canciones, preparar recetas de cocina o planificar viajes. Las aplicaciones parecen infinitas.
Estos modelos de lenguaje tienen limitaciones, como la aparición de las llamadas alucinaciones, fabulaciones en las que el modelo de lenguaje se inventa hechos y personajes, así como fuentes ficticias. La posibilidad de que accedan a internet, como permite chatGPT+, Bing de Microsoft o Bard de Google, ha reducido estos problemas, pero no los ha eliminado del todo. Estas herramientas de inteligencia artificial tienen un potencial enorme, pero no están libres de problemas.
Enrique: Los profesores nos estamos observando que el estudiantado está haciendo un uso malicioso de estas herramientas de inteligencia artificial. Para preparar trabajos a presentar en clase, para resolver ejercicios e incluso para dar respuestas a exámenes. Estas herramientas ofrecen una respuesta rápida, que parece auténtica y convincente.
El uso inapropiado de estas inteligencias artificiales afecta a la integridad académica y pone a los profesores en una posición difícil para evaluar y calificar el trabajo de los estudiantes de manera justa. Ya se ha propuesto desde la Universidad de Málaga enseñar a los docentes a usar estas herramientas para que las incorporen a la formación de los estudiantes. Hay materias en las que su uso es más fácil, pero en otras requiere replantarse de forma completa toda la docencia.
Los profesores debemos fomentar la ética y el desarrollo de habilidades de pensamiento crítico y creatividad genuina que ayuden a contrarrestar la tendencia a abusar de estas inteligencias artificiales. Debemos promover una cultura académica basada en la honestidad y el esfuerzo genuino.
Y lo que nos pasa a nosotros también le pasa a muchas profesiones. Si bien se debe fomentar un uso adecuado de estas herramientas, se debe evitar en todo lo posible los abusos que implica su uso sin control. Por ello es muy importante que haya una regulación urgente de su uso, que permita implementar políticas claras sobre su incorporación, ahora mismo inevitable, a muchas actividades profesionales.
Esther: Hoy contamos con Antonio Diéguez Lucena, catedrático de Lógica y Filosofía de la Ciencia del Departamento de Filosofía de la Universidad de Málaga. Experto en filosofía de la tecnología, está preparando un nuevo libro sobre este tema, con énfasis en la regulación y el control de estas inteligencias artificiales. [Saludos] Ayer, en el Parlamento Europeo, se inició el proceso para regular todo esto de la inteligencia artificial…
Antonio: «Si no estoy mal informado lo que se aprobó fue el inicio del proceso que llevará a la aprobación final de la ley. Se espera que para finales de año Europa tenga una ley en vigor que regule el uso de la inteligencia artificial y, en ese sentido, será pionera».
Esther: «Profesor, empecemos por el principio, ¿qué es la inteligencia artificial y en qué se diferencia de la inteligencia humana».
Antonio: «Esta es una pregunta clave, porque dependiendo de cómo la definamos, podemos evitar algunos malentendidos y algunas discusiones que están siendo muy candentes en la actualidad, pero que a mi juicio están un poco desencaminadas. La inteligencia artificial es un campo científico dentro de la ingeniería, dentro de las ciencias de la computación, que surge de manera oficial, aunque hay precedentes, como siempre, en 1956 en la conferencia de Darmouth».
«Allí ya definieron cuál era el objetivo de este campo. La creación de máquinas tales que son capaces de realizar tareas que, cuando la realiza un ser humano, decimos que las hace de forma inteligente. Esta definición está muy bien hecha, porque no dice la creación de máquinas inteligentes; dice la creación de máquinas que cuando realizan ciertas tareas, esas tareas decimos que el ser humano las hace de forma inteligente».
«Todos sabemos que una calculadora de bolsillo hace una tarea que, cuando la hace un ser humano, la hace de forma inteligente, que es calcular. Pero a nadie se le ocurre decir que tiene una calculadora muy inteligente. En todo caso, diría que tiene una calculadora muy buena, que hace muchas operaciones distintas».
«La cuestión es que cuando tenemos tareas más complejas, en el sentido de más ligadas al lenguaje y no al mero cálculo, puede dar la impresión de que hay algo especial que no está en tareas más reconocibles como algorítmicas. Y ese sería el ejemplo del ChatGPT, del que habló Francis. La impresión que uno tiene cuando entra en el ChatGPT y empieza a preguntar cosas es que realmente está entendiendo lo que uno le pregunta y que sus respuestas están basadas en el significado de los términos que emplea. Pero esto es nuestra impresión, no es la realidad».
«La realidad es que el ChatGPT de alguna forma, lo que hace es calcular la probabilidad de que la siguiente palabra encaje mejor o peor, en función del contexto de palabras que ya hay. El ChatGPT no está entendiendo nuestra pregunta en el sentido estricto del término a entender, ni la respuesta que nos está dando, no entiende en absoluto esto. Entonces que queramos llamar a eso inteligencia o no, depende de lo estricto que seamos en el empleo de ese término.»
Francis: Hoy en día hay mucho miedo a que estas inteligencias artificiales se descontrolen y acaben siendo maliciosas para la humanidad. Antonio, ¿qué opinas al respecto de esta posibilidad?
Antonio: «Yo creo que estos escenarios se están presentando, muchas veces, por parte de los propios directivos de las grandes empresas tecnológicas para desviar la atención de los auténticos problemas. Yo no me preocuparía demasiado por la posibilidad de que en el futuro haya máquinas superinteligentes que tomen el control de todo. Lo que el ingeniero de Google Ray Kurzweil llama la singularidad».
«A mí no es una posibilidad que me quite el sueño, desde luego. Si alguna vez ocurre, no va a ser en el 2045 como dice Ray Kurzweil. Sobre lo que pueda ocurrir dentro de 1000 años no podemos decir nada, ¿verdad? No veo yo que para el 2045 tengamos un escenario como el de la película Blade Runner, una coalición de máquinas o una máquina superinteligente controlándolo todo».
«Tenemos problemas más urgentes y más importantes que resolver, que es lo que la legislación europea trata encausar y es ahí donde debemos centrar nuestra atención. Por ejemplo, el enorme poder de estas compañías».
Esther: «Claro, ya se habla de la ética de la inteligencia artificial…» Antonio: «Sí, es un campo emergente…» Esther: «Muchos expertos ya han reclamado una moratoria. No sé qué opina sobre esto».
Antonio: «Yo firmé la carta, yo estaba entre los firmantes que pedía la moratoria y ya van por más de 30 000. A mí me parece que pedir la moratoria era un poco inútil. Yo creo que que la mayoría de los que han firmados son conscientes de que, primero, no va a haber moratoria, y, segundo, de que seis meses de moratoria no resuelven nada. Pero lo importante fue el impacto que tuvo para hacer llamar la atención a mucha gente de que hay que regular esta tecnología».
«Cualquier tecnología tiene que tener una regulación. Lo hemos hecho con las biotecnologías y con la energía nuclear. Y esta tecnología de la inteligencia artificial es muy poderosa, muy potente, tiene una gran cantidad de efectos positivos y negativos, y, por tanto, necesita una regulación».
Esther: «Profesor, a mí me inquieta mucho que los propios impulsores de la inteligencia artificial firmen manifiestos apocalípticos. Los propios creadores de esta tecnología alertan de peligros extraordinarios, los mismos que los han creado. A mí esto me inquieta muchísimo».
Antonio: «A mí también y me pregunto por qué lo hacen. Si creen realmente lo que están afirmando, que esto va a destruir al ser humano, deberían sencillamente cerrar la empresa. ¿Por qué estos directivos de grandes empresas hacen este tipo de proclamas? O bien no se lo creen, pero llama la atención, una forma de publicidad que atrae inversiones. O bien están desviando la atención de los auténticos problemas, mientras estamos preocupados de si habrá un terminator, dejamos de interesarnos por lo que ellos están haciendo ya en este momento con nuestros datos, por ejemplo. O bien se lo creen y son muy buenos y altruistas avisando a la humanidad; pero ellos siguen trabajando efectivamente…»
Enrique: «A mí me preocupa lo siguiente… Se trata de máquinas, supercomputadores, que hacen muchos cálculos y consumen mucha energía y muchos recursos. Por lo tanto emiten muchos gases de efecto invernadero que van a contribuir al cambio climático. ¿Se podría darle la vuelta y utilizar esta tecnología para mejorar la eficiencia energética y optimizar los recursos naturales? ¿Sabes si se está aplicando para garantizar el beneficio social y medioambiental?
Antonio: «Hay muchas esperanzas puestas en eso, Enrique. Ahora mismo, entrenar uno de estos sistemas de inteligencia artificial (los más potentes), tiene un consumo energético tremendo y su huella de carbono es grande. Las compañías son conscientes de ello y se supone que están trabajando en la reducción de ese consumo energético. Veremos si lo consiguen».
«Lo que sí parece claro es que a medida que la inteligencia artificial se vaya desarrollando cada vez más, puede ser un instrumento muy útil a la hora de analizar los problemas medioambientales actuales. Conocer mejor el comportamiento de la atmósfera terrestre, conocer mejor el comportamiento del clima, y también proponer soluciones».
Esther: «Con el profesor Antonio Diéguez Lucena, catedrático de Lógica y Filosofía de la Ciencia, estaríamos hablando toda la mañana. Profesor, otro día tenemos que seguir hablando de todo esto en la radio. Ahora está preparando un nuevo libro sobre este tema, sobre inteligencia artificial. ¿Cuándo se va a publicar?»
Antonio: «Si todo va bien, espero que el año que viene. Pero antes saldrá otro libro, que ya está listo, en proceso de edición. Se titula «La ciencia en cuestión» será una defensa de la ciencia frente a los ataques que ha recibido de movimiento anticiencia, negacionistas, …»
Esther: «Lo siento, pero lo vamos a tener que dejar aquí». [Despedida y cierre]