Hacia la consciencia artificial (mi charla ASPROJUMA en Málaga)

Por Francisco R. Villatoro, el 6 agosto, 2024. Categoría(s): Ciencia • Informática • Recomendación ✎ 11

El miércoles 25 de octubre de 2023 impartí la conferencia «Hacia la consciencia artificial» en el Salón de Actos del Rectorado (Paseo del Parque) de la Universidad de Málaga. Organizada por ASPROJUMA (Asociación de Profesores Jubilados de la Universidad de Málaga) se conmemoraba el Día del Profesor Jubilado. El público objetivo de la charla eran profesores de universidad jubilados de todas las áreas de conocimiento. Mi objetivo con esta charla era hacerles reflexionar sobre la situación actual de la inteligencia artificial, usando como hilo ChatGPT, y sobre lo que podemos esperar para el futuro, desde una visión tecnooptimista, en el campo de la consciencia artificial. La charla no se grabó en vídeo.

Permíteme una transcripción libre con algunos comentarios. Soy consciente de que lo que era actualidad el 25 de octubre de 2023 ahora es un pasado remoto, al ritmo como avanza la inteligencia artificial. Aún así, espero que esta transcripción aún tenga cierto interés.

Todas las personas en esta salón de actos estamos viviendo en una época fascinante. Estamos disfrutando de un cambio de paradigma, el nacimiento de la inteligencia artificial del futuro. Los cambios están ocurriendo a una velocidad de vértigo, semana a semana. Lo que era imposible la semana pasada, esta es posible. Y cuesta imaginar lo que será posible la próxima semana en contexto de gran competencia entre las grandes empresas tecnológicas. Esta época será recordada en todos los libros de historia como el inicio de la era de la inteligencia artificial. Si el siglo XX fue el siglo de las comunicaciones, el siglo XXI promete ser el siglo de la inteligencia artificial. Mucha gente del futuro tendrá envidia de nosotros por haber podido vivir en primera persona esta revolución cientificotécnica.

Todas las personas estamos inmersas en la revolución de los agentes artificiales generativos. Más allá de sus aplicaciones específicas, por simple entretenimiento, ahora somos capaces de crear espectaculares imágenes, música, letras de canciones, poesía, novelas, o incluso artículos científicos. Las potencialidades de estas herramientas (algunas gratuitas, muchas otras de pago) no parecen tener fin.

Imaginen que uno de sus nietos les pide que le expliquen esta viñeta de Quino. Hasta la semana pasada hubieran tenido que hacer cierto esfuerzo de reflexión; era casi imposible usar un conversador como ChatGPT como ayuda para esta tarea. Sin embargo, esta semana pueden recurrir a ChatGPT+, que acepta imágenes como parte del comando de entrada.

La adición de la multimodalidad, gracias a usar GPT-4v, permite una respuesta espectacular de ChatGPT+. Les animo a leer la respuesta, cuyo única errata es que “en el televisor se ve una imagen de un fuego” cuando se ve la imagen de una mecha. Pero la descripción de la imagen es sorprendente. Mientras leen la respuesta, les recuerdo que los asistentes personales son una de las cosas que nos  diferencian a los multimillonarios. Ahora que Meryl Streep está de moda con su Premio Princesa de Asturias, recuerdo una escena de la película “El diablo viste de Prada”. La jefa, Miranda, amenaza a su asistente personal, Andy, que si no le consigue el borrador del próximo libro (el séptimo) de la serie Harry Potter será despedida; tiene un día para lograrlo. Dos minutos de tensión en la película en los que Andy despliega todos sus recursos; con un poco de suerte, logra fotocopiar el borrador. Al día siguiente, Miranda mira su mesa y no ve el manuscrito; a punto de ser despedida, Andy le aclara que sus gemelas ya lo están leyendo camino al colegio. No pensaba que ella también quisiera leerlo.

Como es obvio es solo una película, que les recomiendo disfrutar. Pero, ¿a quién no le gustaría tener un asistente personal así de eficaz? Por cierto, el borrador del libro en la película no tiene título, pues se rodó en 2006 y el libro apareció en 2007. Les insto a imaginar un mundo en el que Andy, asistente personal de Miranda, fuese una aplicación móvil, un asistente inteligente personal.

Me atrevo a augurar que en unos 5 años no habrá que ser multimillonario para tener un asistente personal como en “El diablo se viste Prada”. Todas las personas tendremos en nuestro teléfono móvil un “copiloto”, un asistente inteligente personal. Imaginen que están paseando por calle Larios y ven a una mujer con un vestido que les gustaría para su hija o su nieta. Bastará que le digan al asistente inteligente de su teléfono móvil que use la cámara para reconocer la marca del vestido y buscar en la web dónde se puede comprar; además, si les convence el precio, realizará la compra del vestido con la talla correcta de ella (que ustedes no tendrán que recordar) y se lo enviará a su dirección postal con un bonita tarjeta dedicatoria (que ustedes no tendrán que escribir).

O quizás se den cuenta de que han olvidado el cuarto cumpleaños de su nieto Mateo, gran fan de Bisbal. Un buen regalo sería un videoclip musical con Bisbal. Podrán solicitar a su asistente inteligente que genere un videoclip en el que aparezcan su nieto y el cantante bailando una canción original dedicada. Incluso podrá incluir a su madre en el vídeo. Todo a ello a partir de las fotografías de Mateo y su madre que ustedes dispongan en su teléfono (las de Bisbal las descargará de la web). Hoy en día, la canción, la música, la interpretación de Bisbal y el baile requiere muchas horas de trabajo de un diseñador gráfico experto en generación de vídeo. Dentro de unos cinco años, si la Unión Europa no legisla en contra, el asistente inteligente personal de su teléfono móvil será capaz de producirlo en pocos segundos (por un módico precio).

Estamos asistiendo, día a día, a una revolución tecnológica sin parangón. Pero hay un miedo atávico que no podemos evitar. ¿Y si estos asistentes inteligentes se vuelven conscientes de forma espontánea? Tenemos miedo del futuro distópico que vemos en muchas películas, en las que los humanos son mascotas de las inteligencias artificiales.

En películas como Matrix (1999) se propone usar a los humanos como baterías biológicas para las máquinas (un sinsentido desde cualquier punto de vista termodinámico o físico). Parece más aterrador un futuro distópico en el que los humanos seamos prescindibles.

Nos da miedo porque en la actualidad no tenemos ningún modo para detectar la emergencia de la consciencia en una inteligencia artificial. Este problema ha sido debatido por muchos filósofos, destacando David Chalmers. ¿Cómo sabe usted que la persona más cercana en este salón de actos no es un zombi filosófico? ¿Cómo sabe usted que dicha persona es consciente igual que usted? Un zombi filosófico es capaz de comportarse como un humano en todos los aspectos externos y comunicativos, pero carece de consciencia (un punto de vista subjetivo). Una idea que nos lleva a Ava, en la película Ex Machina. Vestida y con peluca parece tan humana y tan consciente como una persona. Sin embargo, cuando se desnuda es una ginoide con un cuerpo artificial semitransparente.

Si no han visto la película Ex Machina (2015), les recomiendo disfrutarla. Propone un experimento para determinar si una ginoide artificial es consciente: una variante del test de Turing, pero para la consciencia. Un joven informático interacciona todas las mañanas con Ava para determinar en una semana si es consciente o no lo es. Por desgracia, sabemos que este experimento no puede determinar si Ada tiene consciencia artificial o si es un zombi filosófico.

Tampoco sirve un experimento biofísico, como nos proponen en la novela “¿Sueñan los androides con ovejas eléctricas?” de Philip K. Dick, que inspiró la película “Blade Runner”(1982) de Ridley Scott. Los replicantes modelo Nexus-6 son androides bioingenieriles indistinguibles de un humano; se fabrican ya de adultos, pero con una vida limitada a cuatro años, para evitar su inevitable desarrollo emocional inestable (que los hace peligrosos para las personas). Se propone un test de empatía de Voight-Kampff basado en la dilatación de las pupilas, los movimientos oculares sacádicos, las microexpresiones faciales, etc., que desencadenan una respuesta emocional en un humano, pero no en un replicante. ¿Puede un test similar diferenciar un “zombi filosófico” de un “humano consciente? La respuesta entre los filósofos y neurocientíficos es que no es posible.

La solución podría ser una moratoria en el desarrollo de la inteligencia artificial (que muchos expertos y empresarios ya propusieron en abril de 2023). ¿“Crear un hombre artificial ha sido siempre el sueño de la ciencia”? Nos lo dice el Profesor Allen Hobby de Cybertronics Manufacturing en la primera escena de la película “Inteligencia Artificial” (2001) de Steven Spielberg (basada en una idea de Stanley Kubrick). ¿Realmente queremos crear una consciencia artificial? De hecho, en la película se pone el foco en crear una «consciencia emocional», como si las emociones fueran la barrera insalvable hacia una consciencia artificial.

Pero la pregunta del millón de dólares es ¿para qué necesitas un asistente inteligente que tenga una consciencia artificial? ¿Qué ventajas ofrece la consciencia artificial sobre la inteligencia artificial? En esta charla ofreceré mi opinión: aún estamos muy lejos de lograr la consciencia artificial. Ofreceré mis argumentos, inspirados en el funcionamiento de ChatGPT y en el conocimiento neurocientífico sobre la consciencia humana.

Por cierto, según el Diccionario de la Real Academia Española, en español, conciencia es sinónimo de consciencia, pero consciencia no es sinónimo de conciencia. No se puede decir “tengo remordimientos de consciencia”, o “soy conciente de impartir esta charla”. Les voy a hablar de consciencia, no de conciencia. Según los expertos, el campo de la consciencia artificial nació como una rama de la inteligencia artificial a principios de este siglo (se suele fechar en 2004). Su objetivo se suele resumir en recrear de forma artificial el ego, el yo cartesiano de la frase “pienso, luego existo”. En cierto sentido se pretende que una máquina pueda afirmar «pienso, luego soy consciente». No es mi objetivo realizar una revisión en profundidad del estado actual de este campo de investigación. LOS GRANDES avances de este siglo han sido gracias a las redes de neuronas artificiales.

El origen de la consciencia está en el encéfalo (brain en inglés, muchas veces mal traducido por cerebro). Nuestro encéfalo tiene unas 86 000 millones de neuronas, con unas 70 000 millones en el cerebelo y unas 15 000 millones en el cerebro. Las neuronas del cerebelo tienen muchas más sinapsis que las del cerebro, estimándose un total entre 100 y 500 billones de sinapsis.

Esta figura resume el proceso de comunicación entre neuronas mediante sinapsis químicas controladas por el potencial de acción. Las neuronas tienen un cuerpo celular, con múltiples dendritas y un largo axón, que finaliza en las terminaciones axonales. En la sinapsis entre neuronas, las terminaciones axonales se acercan a las dendritas. El potencial de acción llega al extremo de la neurona presináptica, lo que provoca la liberación de vesículas sinápticas llenas de neurotransmisores en la hendidura sináptica. Estos neurotransmisores son sustancias químicas que se unen a receptores en la neurona postsináptica, lo que provoca la apertura de canales iónicos específicos.

La clave del funcionamiento de las sinapsis es que la apertura de los canales permite que iones como el sodio (Na⁺) o el potasio (K⁺) entren o salgan de la neurona postsináptica, generando un potencial postsináptico. Este potencial solo genera un nuevo potencial de acción si se supera cierto umbral de excitación.

McCulloch y Pitts (1943) propusieron las neuronas artificiales (también llamadas perceptrones), modelos matemáticos inspirados en el funcionamiento de las neuronas. Cada neurona artificial tiene múltiples entradas (números), a los que se asigna ciertos pesos sinápticos y genera una salida que depende del valor de una función de activación aplicada a la suma ponderada de dichas entradas; si el resultado supera un cierto umbral, la neurona se activa y produce una salida. En las redes de neuronas artificiales actuales se usan múltiples capas interconectadas. A la capa de entrada le siguen varias capas ocultas que realizan cálculos intermedios y la capa final de salida. Las conexiones entre las neuronas se representan por los pesos sinápticos y el número de neuronas por capa varía según la aplicación.

Las redes de neuronas se usan para aproximar funciones, con entradas y salidas gracias a los llamados atractores. En este caso una función con tres valores {−1,0,1} linealmente separados por ángulos de 120 grados. Aquí se observa que para la entrada (0.5, −0.8), la red ofrece como resultado −1. la función de activación suele ser una función sigmoide o a veces una función más sencilla de tipo ReLU (Unidad Lineal Rectificada); esta función determina si una neurona se activa o no. Estas funciones introducen una no linealidad en la red, lo que le permite modelar relaciones complejas en los datos.

Los pesos sinápticos de la red de neuronas artificiales se determinan mediante el proceso de entrenamiento de la red. Brevemente: (1) se asignan pesos aleatorios; (2) los datos de entrenamiento se propagan hacia adelante y se calcula la salida; (3) se calcula el error con respecto a la salida deseada; (4) se propaga el error hacia atrás a través de la red, ajustando los pesos de las conexiones en función de la contribución de cada peso al error; y (5) se modifican los pesos y se repite el proceso muchas veces (épocas) para mejorar el rendimiento de la red. El proceso se detiene cuando el error converge o se alcanza un criterio de parada. Para de redes neuronales pequeñas y funciones a aproximar complicadas se requieren un gran número de épocas.

A finales del siglo XX el diseño de redes de neuronas artificiales tenía mucho más de arte que de ciencia. Pero en el siglo XXI se descubrió que todo lo que sabía era mentira. Todo era mucho más fácil. Porque el tamaño importa, hay que usar tantos pesos sinápticos como datos de entrenamiento; así la red generaliza mucho mejor y se entrena más fácilmente. No es necesario un gran número de épocas, pues basta un entrenamiento aproximado. No hay que usar operaciones matemáticas complejas, una función de activación lineal y un números de 8 bits son más que suficientes (datos con 256 niveles en lugar de 100 trillones). Además, no hay que preprocesar los datos de entrada; cuanto menos se toquen los datos originales de entrenamiento mejor que mejor (aunque conviene que dichos datos sean de la máxima calidad disponible). Una revolución silenciosa que tirado a la basura todo lo que sabíamos y nos llevado a la gloria actual de la inteligencia artificial.

Un buen ejemplo son los modelos de lenguaje tipo GPT (transformador preentrenado generativo) de la empresa OpenAI. GPT-1 tenía 117 millones de pesos sinápticos para 4500 millones de caracteres (cociente 38). GPT-2 tenía 1500 millones para 40 000 millones de caracters (cociente 27). GPT-3 usa 175 000 millones para 500 000 millones de caracteres (cociente 3). El cociente entre datos y parámetros se va reduciendo conforme se va logrando que los modelos de lenguaje mejoren su funcionamiento. La tabla, ahora ampliada, se puede disfrutar en «Modelo de lenguaje grande», wikipedia.

El resultado es fascinante y sorprendente. Le puedes pedir hasta el primer párrafo de El Quijote… y lo recuerda a la perfección (sin que esté almacenado en una memoria explícita).

Incluso ChatGPT es capaz de escribir chistes. A mí no me hacen gracia, pero no sé lo que pensarán ustedes. El propio ChatGPT nos dice que “espera que nos hayan sacado una sonrisa”.

Lo que hace ChatGPT es completar un texto, palabra por palabra, … Le he pedido a ChatGPT que complete la frase «Lo mejor de las IAs como ChatGPT es” y me ha contestado «su habilidad para procesar grandes cantidades de información y generar respuestas relevantes de manera rápida y eficiente, ayudando a las personas a obtener información, resolver preguntas y facilitar la comunicación de una manera más accesible y conveniente.» ChatGPT tiene un parámetro de “temperatura” que hace que sea más preciso, a menor temperatura, o más creativo, a mayor  temperatura. A más precisión más probabilidad de que repita lo mismo… pero la creatividad es lo que mucha gente admira de esta IA.

El modelo de lenguaje no trabaja con palabras sino con tokens. Aquí presento un texto en español de 45 palabras y 65 tokens, que en inglés son 39 palabras y 46 tokens. La entrada en forma de palabras para ChatGPT se transforma en tokens (que son unidades léxicas, como raíces de palabras, sufijos y prefijos, así como símbolos de puntuación). Observa como “I.A.s” se representa con dos tokens, o como “eficiente” es “ef” y “iciente”, o “preguntas” es “preg” y “untas”. Los tokens se codifican como números en un diccionario de cada idioma. Algunos números coinciden como 11 para la “,” o 13 para el “.”, o 13149+38+2898 para Chat+G+PT.

GPT usa una representación en forma de imagen (bidimensional) de las unidades léxicas (tokens). La razón es que las redes de neuronas funcionan mejor con imágenes. Esta representación (embedding en inglés) es resultado del aprendizaje y resulta difícil explicar o de entender, pero permite medir la semejanza “semántica” entre palabras (perro y gato se parecen más entre sí que ambos a la palabra “silla”).

El gran secreto de ChatGPT es la atención multicabezal, un módulo que usa como entrada la representación con imágenes de las unidades léxicas y las posiciones de dichos tokens en la entrada y aplica múltiples funciones de atención con diferentes selecciones de dicha información de entrada. La atención consiste en aplicar una operación matemática softmax (que transforma la entrada en un vector de valores entre 0 y 1 que suman 1, es decir, los convierte en probabilidades). Q es la entrada (query), K es el diccionario de tokens y V es la representación de la posición en la entrada. Cada cabezal de atención aprende a usar esta información de forma diferente.

La salida del módulo de atención es una gran imagen (768 × 768 para GPT-2 y 12 288 × 12 288 para GPT-3) que es la entrada para la red neuronal de tipo decodificador (decoder) que genera un nuevo token para añadir a la entrada. Estas imágenes de la atención codifica las “leyes del lenguaje” que conoce GPT. Nadie sabe cómo lo hace (GPT aprende a generarlas por sí solo).

Una red de propagación directa o hacia adelante (feed forward) genera el vector de probabilidades para el nuevo token. Dicha salida se vuelve a introducir como entrada, pero usando un módulo de atención multicabezal diferente, entrenado para dar el siguiente token. Y así sucesivamente hasta que aparece el token END de finalización.

La arquitectura de la red determina qué aprende, pero la red aprende sola. No sabemos cómo lo hace. Pero los 175 mil millones de pesos sinápticos de GPT-3 han sido entrenados con unos 500 millones de tokens de toda la Wikipedia en inglés, corpus de libros y páginas web. Dependiendo de la calidad de los datos de entrada así es el resultado. Por eso, el corpus de entrenamiento de GPT-3.5 y GPT-4 no se ha publicado (es propiedad privada de OpenAI).

Los grandes modelos lingüísticos funcionan de forma excelente, pero no sabemos por qué funcionan. Son el resultado de muchos años de prueba y error, y de muchas ideas felices (como representar la información con imágenes y usar el módulo de atención). Solo sabemos que GPT no entiende ni lo que lee, ni lo que escribe. Tampoco sabe gramática, ni sintaxis, ni semántica. No sabemos explicar qué reglas internas del lenguaje usa para generar textos, ni si estas reglas tienen relación con las que pueden usar el cerebro humano. Tampoco sabemos qué información ha memorizado, pero puede recordar las primeras páginas del Quijote, sin errores.

Me gustaría destacar algunas lecciones de ChatGPT. El lenguaje humano parece ser más sencillo de lo que parecía (quizás por eso lo aprendemos de niños sin una estrategia formal). El razonamiento lógico, como los silogismos, se pueden aprender leyendo libros de lógica proposicional y lógica de predicados, incluso de alto orden. Las cualidades subjetivas (como los qualia) podrían ser patrones en mapas de los sentidos, como lo son la abstracción y la semántica para GPT (patrones en textos). En conclusíon, “lo que parece complicado a veces es muy sencillo” cuando se usa la arquitectura modular adecuada.

Mi exposición sobre el funcionamiento de ChatGPT ha sido muy breve, pero creo que permite aclarar varias cuestiones. ¿ChatGPT es inteligente? Depende de cómo se defina. No tiene inteligencia tipo humana, rotundamente no. Solo se puede afirmar (de forma retórica) que tiene inteligencia artificial (porque es una inteligencia artificial). Pero a pesar de que los grandes modelos de lenguaje son la nueva moda en inteligencia artificial, la inteligencia y la inteligencia artificial son cosas muy diferentes, que no se deben confundir. ¿ChatGPT podría llegar a ser consciente? No, rotundamente no.

Mi propuesta en esta charla es que la consciencia no surgirá de forma espontánea en una inteligencia artificial. Habrá que diseñar una arquitectura adecuada para el surgimiento de la consciencia, lo que podemos llamar un módulo de consciencia (en analogía con el módulo de atención) ¿Pero cuál debe ser dicho módulo de consciencia? En mi opinión, los expertos tendrán que inspirarse en la consciencia humana para poder diseñar dicho módulo en el futuro. Todavía estamos lejos de comprender la consciencia como para que podamos diseñar el (futuro) módulo de consciencia.

Esto nos lleva a una gran cuestión, ¿debe la inteligencia artificial imitar a la inteligencia humana? En la línea de los modelos de lenguaje, ¿el diseño del módulo de atención se inspiró en la inteligencia humana? Como es obvio, para un humano que trabaja en inteligencia es difícil evitar inspirarse en la propia experiencia inteligente. Pero no tengo una respuesta a la pregunta si la inteligencia artificial debe imitar a la humana. Quizás no sea necesario para que las máquinas sean más humanas que los humanos.

A lo largo de la historia de la inteligencia artificial, su objeto de estudio ha ido cambiando. A pesar de lo que se cuenta en la película “Juegos de Guerra” (War Games, 1983), jugar al tres en raya nunca ha sido objeto de la inteligencia artificial (dado que es un juego cuya estrategia óptima es trivial, en todos los sentidos). La idea de que la WOPR de Falken debe jugar consigo misma al tres en raya, un juego en el que no hay ganador, para darse cuenta de que una guerra termonuclear tampoco tendría ganador es un sinsentido. A pesar de ello, esta escena de la película ilustra el aprendizaje a partir de la experiencia en una inteligencia artificial, algo muy raro de ver en el cine.

Cuando yo estudié inteligencia artificial durante mi carrera de informática en la Universidad de Málaga, el juego de las damas formaba parte de la inteligencia artificial. Sin embargo, con el paso de los años se descubrió que jugar a las damas no requiere ningún tipo de inteligencia, pues desde el año 2007 se conoce la estrategia óptima. Se representa por un árbol de jugadas y respuestas enorme, imposible de recordar para un humano, quien en su incapacidad debe recurrir a la inteligencia. Pero una máquina puede almacenar el árbol completo, con lo que no necesita ningún tipo de inteligencia para ganar.

Mucha gente cree que jugar al ajedrez requiere inteligencia y llama inteligentes a los jugadores de ajedrez. Sin embargo, las inteligencias artificiales como AlphaZero nos han demostrado que no se requiere inteligencia. AlphaZero aprendió a jugar sin usar ningún tipo de conocimiento humano, solo jugando contra sí misma. Para jugar al ajedrez basta usar inteligencia artificial, la capacidad de buscar patrones jugando millones de partidas. El ajedrez acabará por no formar parte del campo de la inteligencia artificial.

Y lo mismo ha ocurrido con el go. Lee Sedol siempre será recordado por su jugada “la mano de Dios” que le permitió vencer en una de las cinco partidas contra AlphaGo. El fallo de la máquina fue debido a que había sido entrenada con conocimiento humano (integrado en la poda de ramas del árbol de jugadas de su generador de Montecarlo). La llegada de AlphaGo Zero permitió prescindir de todo el conocimiento humano y vencer a todos los humanos sin dificultad. El conocimiento humano solo era un lastre del que había que prescindir. En mi opinión, la inteligencia humana solo es un lastre del que las inteligencias artificiales tendrán que prescindir.

La consciencia humana también podría ser un lastre para las futuras consciencias artificiales. Igual que en el caso de la inteligencia, no tenemos una definición de qué es la consciencia. Los grandes avances en inteligencia artificial han sido posible incluso sin disponer de una definición de inteligencia, que parece más un lastre que una necesidad. Auguro que los grandes avances en consciencia artificial serán posibles incluso sin una definición de consciencia, que acabará siendo considerada algo contingente.

Se ha avanzado mucho en el campo de el problema de la emergencia de la consciencia, que aún estamos lejos de resolver. Por ejemplo, se ha propuesto una taxonomía de la consciencia, por Endel Tulving, que diferencia entre consciencia autonética, noética y anoética. La autonética es autoconsciencia reflexiva, la capacidad de ubicar una experiencia actual como parte de una narrativa de la propia vida que se extiende hacia el pasado y el futuro. La consciencia noética es la semántica, la conceptual que no requiere autoconsciencia; implica la capacidad de aplicar conceptos a tus percepciones actuales y generar conocimiento a partir de ellas. Y la consciencia anoética que se refiere a experiencia sin autoconsciencia y sin conocimiento semántico; esta consciencia está más próxima a la consciencia emocional que a la consciencia inteligente, por decirlo de alguna forma. Tulving también introdujo la consciencia cronestésica: ser consciente de la existencia de uno mismo en el mar subjetivo de tiempo, como lo expresó el propio Tulving. ¿Una consciencia artificial tiene que mostrar estos tipos de consciencia? Creo que no.

Nuestra experiencia consciente ocurre en nuestro encéfalo, aunque quizás solo ocurra en nuestro neocórtex. Pero creo que no hay ninguna restricción física que prohíba que una experiencia consciente pueda ocurrir en un máquina artificial, sea biológica o microelectrónica. Aunque, como es obvio, nuestra consciencia está conectada con nuestros sentidos, luego el análogo en una máquina también tendrá que estar conectado son sus sentidos articiales.

Hay que destacar que nos nuestros sentidos preprocesan la información y que muchos «engaños» de nuestros sentidos son debidos a dicho preprocesamiento. Como esta famosa ilusión óptica que hace que nos parezca imposible de creer que los cuadrados marcados como A y B tengan exactamente del mismo tono de gris en la imagen de la izquierda. Hay que realizar un gran esfuerzo cognitivo para notar el engaño, que se desvela al conectarlos los cuadrados con rayas del mismo color.

Todos nuestros sentidos muestran ilusiones de este tipo. Como en el experimento de Geldard y Sherrick de 1972 con el sentido del tacto. En una inteligencia artificial con sensores este tipo de ilusiones aparecerán si se incluye cierto procesamiento en dichos sensores; algo que puede tener ciertas ventajas (como lograr ciertas respuestas rápidas), pero que podría lugar a ilusiones sensoriales muy diferentes de las humanas.

En la misma línea se embarcan las percepciones cognitivas no sensoriales, como el libre albedrío. Todos tenemos la sensación de que somos libres y (por nuestra acervo cultural durante el siglo XX) de que nuestra libertad es muy relevante para nuestra consciencia como personas. Pero hay experimentos, como el famoso de Libet de 1983, que muestran que nuestra percepción del libre albedrío es ficticia. Muchas veces actuamos y más tarde construimos una explicación de nuestra actuación (en base a nuestra libertad o a cualquier otra narrativa similar).

Un ejemplo similar es el experimento de cegera de elección de Johansson y sus colegas publicado en Science en 2005. Este tipo de «ceguera» cognitiva es aprovechada por los magos en sus trucos o por los neurocientíficos en sus experimentos. Se pide a un sujeto que seleccione la cara más bella de dos fotos. Se tapan las fotos y, sin que se dé cuenta, se la presenta la cara no elegida como si fuera la elegido (ilustrado en la siguiente figura). Si se le pide que explique su elección (aunque no sea la que en realidad ha elegido); el 84 % de los sujetos no se da cuenta del cambio y ofrece argumentos «razonables» por los cuales ha elegido la cara (que no ha elegido). Cuando tomamos una decisión somos capaces de justificarla incluso si no es la decisión que realmente hemos tomado segundos antes. ¿Queremos que las consciencias artificiales también tengan este tipo de cegueras cognitivas?

La consciencia siempre nos lleva a la autoconsciencia y al yo consciente, que construimos todas las mañanas al despertar. Durante el sueño nocturno, solo soñamos durante las fases REM; en ellas mostramos signos de una consciencia reducida; fuera de estas fases carecemos de consciencia (aunque reforzamos nuestra memoria). Al despertar por la mañana construimos una nueva consciencia plena, nuestra consciencia para el nuevo día; que no es la misma consciencia del día anterior. La memoria es la clave de nuestra ceguera cognitiva que nos impide notar que nuestro nuevo yo no es el mismo yo del día anterior. ¿Queremos que las consciencias artificiales pasen por fases similares?

En neurociencia se ha descubierto que las personas con callosotomía aparenta tener dos yo conscientes diferentes, asociados a los dos hemisferios. Estos yo son muy diferentes porque aparentan tener una representación del mundo exterior muy diferente (la llamada bilateralidad cerebral asociada la bilateralidad de los propios sentidos).

¿Cómo podremos saber si una consciencia artificial es consciente (en el mismo grado que una persona)? Watanabe en 2022 nos propuso un curioso experimento. Hay entre 200 y 300 millones de neuronas en el cuerpo calloso. Son muchas, pero ya se ha propuesto el uso de cuerpos callosos artificiales implementados con redes de neuronas artificiales como sistema de recuperación de la funcionalidad del cuerpo calloso en los pacientes que necesitaron una callosotomía. Un transplante artificial que permitirá conectar los dos yo conscientes de estas personas. Para que su funcionamiento sea óptimo será necesario desarrollar algoritmos que agreguen la información cognitiva de los dos yo conscientes de estas personas para generar un único yo consciente. Quizás dichos experimentos ayuden a entender mejor la consciencia.

Watanabe nos propone usar conectar un hemisferio del paciente con una inteligencia artificial (aparentemente consciente) mediante un cuerpo calloso artificial. Se dirá que la consciencia artificial imita a la perfección a la consciencia humana si la experiencia subjetiva del paciente es la misma con sus dos hemisferios y con la consciencia artificial en el lugar de uno cualquiera de ellos. Parece cosa de un futuro muy lejano, pero este tipo de experimentos serán lo más próximo que podemos aspirar para verificar que una consciencia artificial emula la consciencia humana.

Todo este tema parece ciencia ficción, pero forma parte del campo del transhumanismo. Tecnólogos como Kurzweil o filósofos como Bostrom han propuesto que nuestra consciencia podrá ser transferida a una máquina, lo que nos permitirá transcender. En un lenguaje más religioso que científico proponen que alcanzaremos la eternidad y que evolucionaremos a los llamados posthumanos.

Estas ideas ya aparecen en películas, como Transcendence (2014). Que nuestra consciencia navegue por la internet (o por la nube) me parece un futuro inalcanzable.

Pero no veo imposible que redes de neuronas artificiales se integren en nuestro encéfalo y que nos ofrezcan capacidades cognitivas avanzadas. Cuando se logre, no habrá tanta diferencia entre una máquina y un humano, entre una consciencia artificial y una consciencia humana. Pero todo esto es futurología.

Mi objetivo con esta charla no es ofrecer respuestas, sino preguntas. Con ello pretendo motivar un debate sobre cuestiones como: ¿Para qué queremos una consciencia artificial? ¿Qué ventajas ofrece que una máquina sea consciente? Gracias por su atención.



11 Comentarios

  1. Tu reflexión sobre la frase «La consciencia siempre nos lleva a la autoconsciencia y al yo consciente, que construimos todas las mañanas al despertar» es provocadora y me ha hecho pensar. Desde mi experiencia como ser humano, puedo testimoniar que, tal como la percibo, la autoconsciencia, entendida como el noumeno kantiano o la apercepción trascendental (la «cosa en si», verdadera como ninguna otra ya que la experimentamos sin necesidad de demonstrarnosla), difiere sustancialmente del yo consciente («fenomenológico») que experimentamos diariamente y que puede ser engañado a través de los sentidos. Mientras soñamos, aunque nuestra consciencia fenomenológica externa esté reducida, persiste esa sensación intrínseca de «ser nosotros» quienes experimentamos esos fenómenos externos en nuestros sueños. Una prueba de esto es que durante el sueño no somos conscientes de que estamos soñando y pensamos que estamos despiertos; esto complica nuestra capacidad de discernir si estamos soñando o no. Esta sensación de «yo» no se reinventa cada mañana; es una constante en nuestra experiencia vital, lo que complica su definición. En la autoconsciencia, un concepto de la filosofía de la mente y no de la neurociencia ni de la inteligencia artificial, el noumeno (la cosa en sí) coincide con el fenómeno (la cosa tal como se presenta), proporcionando un grado de certeza sobre nuestra propia existencia que supera cualquier otro conocimiento fenomenológico sobre el mundo exterior. De hecho, se podría argumentar que esta es la única verdad absoluta que conocemos: nuestra propia existencia. Esto desafía la falsabilidad popperiana, ya que invierte el cargo de la prueba: es a quien afirma que el «yo» es una ilusión, como Dennett, a quien le corresponde la tarea casi imposible de demostrar que esto es cierto, y es casi imposible construir, desde una perspectiva fenomenológica, una explicación que se relacione con un noumeno como la autoconsciencia. Simplemente, no existe una explicación fenomenológica lo suficientemente poderosa como para cuestionar una certeza de ese tipo (un noumeno es infinitamente más cierto que su manifestación fenomenológica por definición). Está más allá de cualquier necesidad de demostración: se experimenta. Habria antes que demonstrar que la autoconciencia no es un noumeno, pero eso es casi imposibile.

    Cualquier intento de explicar este noumeno-fenómeno debe, por definición, reflejar el mismo potencial explicativo y poseer simultáneamente la naturaleza de ser un noumeno y un fenómeno. Esto es desafiante, pues hasta la fecha ninguna teoría ha alcanzado tal grado de coherencia lógica que se pueda considerar certera por sí misma. De hecho, un noumeno-fenómeno que describa completamente la autoconsciencia desafiaría el teorema de incompletitud de Gödel, pues implicaría la existencia de un sistema matemático (un lenguaje) completo y autosuficiente, una noción que el teorema de Gödel considera imposible dentro de sistemas formales suficientemente ricos (siempre se tiene que recurrir a postulados adicionales, que en lo perteneciente a la mente sería nuestro noumeno). Perdón por la complicación, pero es necesario distinguir, según el concepto de demarcación popperiano, lo que es la mente y la consciencia, que es plenamente científica, de lo que es la autoconsciencia, que es un concepto filosófico.

    El argumento de Lucas (y Lucas-Penrose), que sugiere que las máquinas no pueden replicar completamente la consciencia humana, sigue siendo relevante y convincente bajo esta luz. Lo más probable es que solo podamos crear «zombies filosóficos» que imitan comportamientos conscientes sin experimentar verdadera autoconsciencia. Sin embargo, estaría fascinado de presenciar un avance que demuestre lo contrario y que la autoconsciencia artificial sea realmente posible.

    Un saludo y gracias por haber propiciado estas reflexiones. Pido disculpas si he comentado tu charla desde la perspectiva que domino mejor, la filosófica. Supongo que, al igual que cualquier otro campo, este también se beneficia de las diferentes perspectivas y técnicas argumentativas 🙂

    1. No quería decir na, pero como insistes, me parece que Kant se te ha hecho cuajo. La apercepción trascendental no es un noúmeno. Para Kant el noúmeno es incognoscible y el yo es una síntesis, un constructo, como cualquier otro objeto de la experiencia.

      1. Malasguel, discrepo respetuosamente. Aqui estamos hablando de los «zombi filosoficos», osea de como demonstrar *desde fuera* el autoconciencia (el «yo transcendental») de Kant. Ahora bien, yo defiendo que esta posicion es filosofica y no abordable cientificamente. Para un yo transcendental, definir que otro yo fenomenologico es un yo trascendental es un conocimiento noumenologico y por eso inconocible. El yo trascendental es una condicion necesaria para el conocimiento fenomenologico pero no suficiente a nivel noumenologico. Un saludo! 🙂

  2. Excelente. Coincido en casi todo. Algunas puntualizaciones, por incordiar un rato.

    «Un zombi filosófico es capaz de comportarse como un humano en todos los aspectos externos y comunicativos, pero carece de consciencia»

    Si. Pero tú identificas los autómatas artificiales con los zombies filosóficos. Comparten características, pero el zombie filosófico es como el gato de Schrodinger, un personaje de un experimento mental. Chalmers distingue si es posible de si es concebible un planeta donde los zombies filosóficos han aparecido por evolución darwiniana. Acepta que no son posibles, precisamente porque el argumento evolutivo (como el de Jablonka https://thereader.mitpress.mit.edu/how-did-consciousness-evolve-an-illustrated-guide/) es definitivo para la posibilidad del zombie filosófico espontáneo. La consciencia existe porque sirve para algo. Los animales se comporta como se comportan porque son conscientes. No podrían hacerlo sin serlo. Solo una máquina diseñada expresamente para simular la conducta animal hasta hacerla indistinguible del original puede ser un zombie filosófico real (y mucha suerte con lo de indistinguible). Chalmers responde afirmando que los zombies filosóficos al menos son concebibles, imaginables si olvidamos su origen. Pues vale.

    «El lenguaje humano parece ser más sencillo de lo que parecía (quizás por eso lo aprendemos de niños sin una estrategia formal).»

    Simon Kirby al rescate: Cultural Evolution in the Lab shows how Language is Built (https://www.youtube.com/watch?v=YJ7HbS6NYc0)

    «Las cualidades subjetivas (como los qualia) podrían ser patrones en mapas de los sentidos»

    Tendrá que haberlos, pero tal como lo dices, suena a teoría de la identidad mente-cerebro. Eliminativismo. Y estoy de acuerdo en que la misma cualidad subjetiva es un producto de la percepción. Pero simular sus efectos no es lo mismo que tenerlo. La experiencia subjetiva, como dice Searle, supone la aparición de un orden ontológico nuevo. Metafísica en vena. Y en mi opinión, justificada. Efectivamente, aún no sabemos cómo trinchar el pavo.

    «como lo son la abstracción y la semántica para GPT (patrones en textos).»

    Creo que la consciencia es un requisito para la semántica. ¿En qué sentido puede hablarse de semántica si no hay comprensión consciente?. ¿El significado solo como competencia lingüística?. Wittgenstein derrapó hacia el conductismo. Por el mismo motivo, augurar «que los grandes avances en consciencia artificial serán posibles incluso sin una definición de consciencia» corre el mismo peligro, vaciar de contenido el significado del término. Si no se parece en nada, ¿en qué sentido sigue siendo consciencia?.

    «la consciencia no surgirá de forma espontánea en una inteligencia artificial. Habrá que diseñar una arquitectura adecuada para el surgimiento de la consciencia, lo que podemos llamar un módulo de consciencia (en analogía con el módulo de atención)»

    De acuerdo, si llegamos a averiguar cómo replicar la de los animales. Salvo que acabemos dando por bueno el simulacro, si se pone muy pesao. Espero que no falte quien siga señalando la desnudez del emperador. De lo contrario el elilminativismo será una prefecía autocumplida y firmaremos el acta de defunción de la consciencia.

    «los expertos tendrán que inspirarse en la consciencia humana para poder diseñar dicho módulo en el futuro.»

    Amén. Mientras el problema duro siga inexpugnable, podemos ir montando las aferencias y eferencias que necesitará el simulacro. Podemos imaginarlo como un homúnculo humanoide virtual, empezando por la percepción y el movimiento (y ya tenemos mapa, el homúnculo de Penfield).

    «Y la consciencia anoética que se refiere a experiencia sin autoconsciencia y sin conocimiento semántico; esta consciencia está más próxima a la consciencia emocional que a la consciencia inteligente»

    La conducta de los animales que no son autoconscientes también es inteligente. Pero es cierto que la autoconsciencia aporta herramientas cognitivas nuevas.

    «Nuestra experiencia consciente ocurre en nuestro encéfalo»

    De nuevo, eso es teoría de la identidad. Nuestro encéfalo produce nuestra experiencia consciente, pero ésta es casi completamente exterioridad. Los ojos miran hacia fuera de la cabeza. La experiencia consciente es el «mundo» (y para los animales autoconscientes también su presencia en él). De lo que no tenemos experiencia consciente es de nuestro encéfalo.

    «hay experimentos, como el famoso de Libet de 1983, que muestran que nuestra percepción del libre albedrío es ficticia.»

    Los experimentos de Libet están complemente desacreditados.
    https://jralonso.es/2015/08/30/decide-tu-cerebro-antes-que-tu/

    «Lo que era imposible la semana pasada, esta es posible.» Y tanto.
    https://i.ibb.co/DY3RpXf/1f.jpg
    Con Flux 1.0

    Disculpa el ladrillo.

    1. «creo que no hay ninguna restricción física que prohíba que una experiencia consciente pueda ocurrir en un máquina artificial, sea biológica o microelectrónica.»

      Se me pasaba esto. No creo que una máquina pueda ser consciente. En todo caso, un organismo artificial. La microelectrónica podrá simular un organismo, no recrearlo. El funcionalismo computacional es un error. El sustrato importa. Y para que sea consciente, todo apunta a que tendrá que ser un agente vivo. Así que la consciencia artificial pasa por el camino de la vida artificial y una auténtica biología sintética también queda muy lejos, si acaso es posible.
      https://isegoria.revistas.csic.es/index.php/isegoria/article/view/948/947

  3. Diría que no podemos demostrar el que una inteligencia sea superior a la inteligencia humana, la demostración de esa superioridad no sería accesible para nuestra inteligencia inferior.

    1. Como dijo Villatoro en el último Coffe Break en Valencia, ¿superior en qué sentido?. Más rápida, vale. ¿Pero acaso podrá hacer algo distinto?. Cuando la cultura hace del cerebro una «máquina de computación universal» (yo diría un órgano para pensar cualquier cosa), puede correr cualquier algoritmo (aprender cualquier idea).

      1. Masgüel, exactamente me refiero a lo siguiente, podemos comparar inteligencias humanas, es decir,

        -Inteligencia humana 1(María)
        -Inteligencia humana 2(Pedro)

        *realizamos «pruebas» existentes para comparar con mayor o menor precisión su capacidad para resolver problemas y forzamos una decisión.

        Podemos incluso comparar nuestra inteligencia con otras inteligencias inferiores, por ejemplo,

        -inteligencia humana (María)
        -inteligencia animal(el perro de María)

        *existen pruebas que podemos realizar para demostrar nuestra superioridad, por ejemplo, María puede plantearle una serie de problemas geométricos a su perro sin que este pueda resolverlos. (Es un ejemplo de juguete)

        Y aquí el problema al que me refiero, que desde nuestro punto de vista no podemos demostrar que otra inteligencia sea superior a la nuestra, pues no existen «pruebas» que nosotros podamos proponer con nuestra inteligencia que, con una mínima precisión aceptable, resuelvan si esa inteligencia es superior a la nuestra. En todo caso, esa inteligencia superior es la única capaz de proponer las pruebas necesarias para demostrar su superioridad frente a la nuestra.

        Por otro lado, supongamos que nosotros mismos intentamos crear una inteligencia, llamémosla artificial, superior a la nuestra, no podemos demostrar su superioridad simplemente por resolver problemas que tarde o temprano lograríamos resolver nosotros. En el proceso de crear una inteligencia superior a la nuestra necesariamente habremos tenido que enseñarle cosas que no conocíamos, haciendo que nuestra inteligencia sea mayor, haciendo que la inteligencia artificial superior que estábamos creando termine siendo del mismo rango que la nuestra (nuestra inteligencia no es estática estática y pobre)

        No olvidemos que una máquina capaz de resolver todos los problemas existentes no es inteligente, inteligente es el ingeniero que construyó tal máquina.

  4. Desde Argentina te leo siempre y sos mi referencia en divulgación científica ya que mantienes una prudencia y seriedad como pocos. Ojala los periodistas se nutrieran de tus post cuando pretenden dar noticias del ámbito. En fin; solo agradecerte por esta enorme transcripción de tu charla que no solo es muy ilustrativa sino que invita a la reflexión de temas que me interesan mucho (solo soy un analista en sistemas que miraba peliculas donde los algoritmos se volvian humanos y me invitaban al mundo de Matrix). Gracias y mis felicitaciones por todo el aporte que haces.

  5. Un artículo muy interesante. Estoy de acuerdo en que en su estado actual ChatGPT no puede desarrollar consciencia. Sin embargo, no creo que haga falta un módulo dedicado. Creo que en cuanto tengamos inteligencias artificiales que tenga cuerpos (y que tengan instrucciones de cuidar de sus propios cuerpos), que interactuen con su entorno, y que actualicen sus redes neuronales en tiempo real a medida que interactuan con su entorno, la consciencia podría aparecer como una propriedad emergente.

    Una inteligencia que se actualiza en tiempo real, sin control externo, pero con capacidad de interactuar con su entorno no es una buena idea. Tenemos que deshacernos de la idea de crear inteligencia similar a la humana y concentrarnos en crear inteligencias que complementen la nuestra o que nos ayuden en el día a día.

Deja un comentario