Podcast CB SyR 551: Nucleobases en Ryugu, gravitondas LVK O4a, Google DeepMind, hipocampo murino criopreservados y teorías de la consciencia

Por Francisco R. Villatoro, el 1 abril, 2026. Categoría(s): Astronomía • Biología • Cerebro • Ciencia • Informática • Noticias • Podcast Coffee Break: Señal y Ruido • Recomendación • Science ✎ 38

Te recomiendo disfrutar del episodio 551 del podcast Coffee Break: Señal y Ruido [iVoox AiVoox BApplePod AApplePod B], titulado “Ryugu; Gravitondas; DeepMind y Debate IA; Criogenización; Consciencia”, 26 mar 2026. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. Cara A: Un juego completo de nucleobases canónicas en el asteroide Ryugu (09:00). Publicado el catálogo 4 de gravitondas por LIGO+VIRGO+KAGRA (42:00). Cara B: Más sobre Google DeepMind (13:30). Actividad neuronal observada en trozos de hipocampo murino criopreservados (1:00:30). Teorías de la consciencia (1:20:30). Imagen de portada de Héctor Socas Navarro. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».

¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). También puedes apoyarnos vía iVoox (https://www.ivoox.com/support/172891). Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!

Descargar el episodio 551 cara A en iVoox.

Descargar el episodio 551 cara B en iVoox.

Como muestra el vídeo participan por videoconferencia Héctor Socas Navarro @HSocasNavarro /@hectorsocas.bsky.social / @HSocasNavarro@bird (@pCoffeeBreak / @pCoffeeBreak.bsky), Isabel Cordero @FuturaConjetura / @FuturaConjetura.bsky / @FuturaConjetura@mathstodon, Luisa Achaerandio @LuiAcha@LuiAcha.bsky, Juan Carlos Gil Montoro @ApuntesCiencia / @ApuntesCiencia.bsky / @ApuntesCiencia@astrodon, Ignacio Crespo @SdeStendhal, Gastón Giribet @GastonGiribet, y Francis Villatoro @eMuleNews / @eMuleNews.bsky / @eMuleNews@mathstodon. Por cierto, agradezco a Manu Pombrol @ManuPombrol el diseño de mi fondo para Zoom; muchas gracias, Manu.

Tras la presentación de Héctor, Luisa nos cuenta un artículo en Nature Astronomy sobre un juego completo de nucleobases canónicas en el asteroide Ryugu. Ya se habían encontrado nucleobases en otros asteroides, como Bennu, Orgueil o Murchison. Pero en ninguno se habían encontrado todas las cinco básicas de la vida en la Tierra: purinas (adenina y guanina) y pirimidinas (citosina, timina y uracilo), esenciales para el ADN y el ARN, y como moléculas energéticas (similares a ATP y NAD⁺/NADH). Ya fue noticia en 2023 la presencia de uracilo en muestras de Ryugu (Podcast CB SyR 408, LCMF 24 mar 2023). En dos muestras prístinas de Ryugu se ha contrado un cociente entre purinas y pirimidinas (Pu/Py) próximo a la unidad, 1.1 ± 0.2 en A0480 (11.9 mg) y 1.2 ± 0.1 en C0370 (8.3 mg), a diferencia de otros asteroides, como 0.099 ± 0.004 en CI1 Orgueil (30.6 mg), ~0.55 en Bennu y ~3.4 en Murchison. Además, de las nucleobases, en esas muestras de Ryugu también hipoxantina, xantina y 6-metiluracilo.

La concentración total de nucleobases fue 507 ± 21 pmol/g en A0480 y 1577 ± 35 pmol/g en C0370; en este último, la guanina fue la más abundante (558 ± 10 pmol/g en total, con 445 ± 10 pmol/g en el extracto HCl); por ejemplo, en Orgueil domina el uracilo (3160 ± 66 pmol/g en total; 2640 ± 47 pmol/g en el extracto H₂O). En Ryugu también se han observado firmas isotópicas con δ¹³C desde +25.5 ‰ hasta +33.9 ‰ y δ¹⁵N desde +45.1 ‰ hasta +59.8 ‰, muy distintas a los rangos orgánicos terrestres (que demuestra que los resultados no son debidos a contaminación terrestre en la manipulación de las muestras).

Esta observaciones refuercan la hipótesis de que los asteroides carbonáceos pudieron aportar ingredientes clave al inventario prebiótico de la Tierra. Además, sugiere que la razón Pu/Py puede funcionar como trazador geoquímico de las rutas de síntesis: Ryugu, Bennu y Orgueil muestran una correlación negativa entre Pu/Py y concentración de NH₃, con R² = 0.89, lo que apunta a una vía compartida modulada por el entorno fisicoquímico del cuerpo parental y por la disponibilidad de amoníaco, mientras que Murchison parece reflejar una química distinta más compatible con polimerización de HCN. Futuros estudios tendrán que estudiar a nivel experimental la síntesis simultánea de purinas y pirimidinas en hielos interestelares o bajo irradiación de moléculas nitrogenadas como urea/formamida, y estudiar el rol específico del amoníaco y extender el análisis a otras condritas carbonáceas. Todo ello para reconstruir mejor la evolución astroquímica de estos compuestos en el Sistema Solar primitivo. El artículo es Toshiki Koga, Yasuhiro Oba, …, Naohiko Ohkouchi, «A complete set of canonical nucleobases in the carbonaceous asteroid (162173) Ryugu,» Nature Astronomy (16 Mar 2026), doi: https://doi.org/10.1038/s41550-026-02791-z. Más información divulgativa «El asteroide Ryugu contiene cinco componentes esenciales de la vida en la Tierra,» AgenciaSINC, 17 mar 2026.

Isabel nos cuenta que se ha publicado el catálogo O4a de gravitondas de LIGO+VIRGO+KAGRA (LVK). Esta imagen (que ella muestra en el directo en YouTube) ha sido imagen astronómica del día en el día de la grabación (Astronomy Picture of the Day, 26 Mar 2026). Ya son 218 gravitondas (había 98 de los O1, O2 y O3, que se han añadido a las 128 observadas en el O4a entre mayo de 2023 y enero de 2024) en el Gravitational-Wave Transient Catalog-4.0 (GWTC-4). Isa nos destaca dos gravitondas: GW231123 que fue generada por una fusión en la que uno de los agujeros negros es el de mayor masa observada, estimada en unas 130 masas solares; y GW231028 que fue generada por los dos agujeros negros con mayor espín confirmado hasta ahora, ambos rotando a más de 0.4 c. También nos cuenta que estas gravitondas se han usado para hacer test de precisión en relatividad general y para estimar el valor local de la constante de Hubble.

La estadística de masas de los agujeros negros que se fusionan muestra varios picos, destaca Isabel, que podrían ayudar a entender la jerarquía de masa en las fusiones. Un tema muy interesante del que habrá que estar al tanto. Más información en «GWTC-4.0: Updated Gravitational Wave Catalog Released,» Virgo, 26 Aug 2025; «A kaleidoscope of cosmic collisions: the new catalogue of gravitational signals from LIGO, Virgo and KAGRA,» Virgo, 05 Mar 2026.

Señales de los Oyentes: @cebra5429 pregunta: «Casi todos [los espectrogramas muestran que] crece la frecuencia rápidamente pero desde aquí destaca una imagen en que su crecimiento es más lento, ¿a qué puede deberse, está más lejos y la frecuencia más lenta?» Contesta Isabel que cuando la curva es más plana están los agujeros negros más alejados y en el régimen postnewtoniano; la fase final suele ser muy corta, con duraciones con milisegundos. También influyen las masas de los objetos compactos; si son muy masivos el espectrograma es más corto y la frecuencia es más baja, y si son menos masivos es mucho más largo y la frecuencia más alta (como en las fusiones de estrellas de neutrones). Otro parámetro clave es la excentricidad.

@javierbenavides2669 pregunta: «¿Cuándo se funden dos AN hacen sólo BLUP! o hay más fuegos artificiales?» Responde Isabel que en el ringdown hay un modo fundamental y poco más, pues la decae muy rápido. En general, hay más «fuegos artificiales» antes que después del merging. Pregunta Héctor por lo que pasa con la materia en el entorno de estos agujeros negros en fusión. Isabel comenta que son fenómenos muy violentos, pero que no se sabe lo que pasa con la materia en las fusiones de agujeros negros. Destaca que en fusiones de agujero negro y estrella de neutrones, en la mayoría de las configuraciones, la estrella es engullida por completo por el agujero negro, sin dejar materia remanente.

Héctor propone hablar en más detalle de AlphaGo y de AlphaFold de Google DeepMind (y algunas tomas falsas del doblaje al español con IA). Juan Carlos nos recuerda qué es el plegamiento de las proteínas. Y nos habla de muchas de las herramientas desarrolladas por DeepMind: AlphaProof y AlphaGeometry; AlphaDev; GraphCast; etc., y de otras compañías, como AI co-scientist; AI scientist; etc. La tertulia deriva a muchos temas relacionados al hilo de los avances en la IA hasta que Héctor comenta el mito del miedo a que el hijo suplante a su padre (el mito de Prometeo, o de Frankenstein); las máquinas y las IA son ese «hijo» que nos suplantará a sus padres humanos. Ignacio plantea que la IA podría acabar como implante que aumente nuestras habilidades cognitivas. Recomiendo releer a Demis Hassabis, “ From games to biology and beyond: 10 years of AlphaGo’s impact,” DeepMind, 10 Mar 2026.

Recomiendo disfrutar del audio. Solo destacaré que Gastón comenta que él puede entender (con cierto trabajo) un artículo de Juan Martín Maldacena, pero no puede escribirlo. Puede avanzar a partir de dicho artículo, pero destaca que hay una diferencia entre un genio y un científico competente. Yo comento el caso de las demostraciones matemáticas muy largas obtenidas por IA que se pueden verificar de forma automática (en Lean). Ningún humano podrá disfrutar del placer de entender dichas demostraciones (por ser tan largas, el equivalente a millones de páginas de texto). Héctor comenta que otras IA podrán verificar la demostración y aceptarla. Ignacio recalca la agencia de las IA en estas lides. Luisa comenta que «habrá que buscar placeres más asequibles» (en relación al placer de disfrutar de la comprensión de una demostración matemática). Recomiendo el artículo de Chris Lu, Cong Lu, …, Jeff Clune, “ Towards end-to-end automation of AI research,” Nature 651: 914-919 (25 Mar 2026), doi: https://doi.org/10.1038/s41586-026-10265-5.

Me toca comentar un artículo en PNAS sobre la actividad neuronal observada en cortes de hipocampo murino criopreservados. Nuestra amiga Alicia Hurtado nos recomienda seguir el trabajo de Ramón Risco (Universidad de Sevilla, Física Aplicada) experto español en criopreservación por vitrificación, que ha trabajado con Caenorhabditis elegans y con ratones. Con el nemátodo ha observado que el aprendizaje (asociar cierto olor a la presencia de una fuente de alimento) se conserva tras la criopreservación (un artículo reciente es Mauricio Girard, …, Daniel Barranco, …, Ramón Risco, ”Integrity of short-term memory in vitrified and reanimated Caenorhabditis elegans,” Research Gate (Mar 2026), doi: https://doi.org/10.13140/RG.2.2.17838.27208). En criobiología el sistema nervioso (incluido el encéfalo humano) se considera el sistema más sensible al daño por formación de hielo; los métodos tradicionales de enfriamiento no mantienen de forma fiable ni la arquitectura neural ni la función electrofisiológica.

El nuevo artículo en PNAS demuestra una recuperación electrofisiológica convincente en tejido cerebral adulto (de ratón) tras una vitrificación (solidificación de la fase acuosa en un vidrio amorfo no cristalino). En concreto, una recuperación funcional casi fisiológica del hipocampo murino adulto, tanto en cortes como en cerebro completo in situ. Tras enfriar el tejido por debajo de la temperatura de transición vítrea y tras su recalentamiento posterior, se estudia la integridad estructural, metabolismo mitocondrial, excitabilidad neuronal, transmisión sináptica y plasticidad a largo plazo (long-term potentiation o LTP), esta última clave del aprendizaje y la memoria.

En cortes horizontales de hipocampo de 350 μm de grosor en ratones adultos (3–9 meses), se usa un protocolo escalonado de carga y descarga de agentes crioprotectortes (cryoprotective agents o CPA), en concreto, una variante de VM3 (solución de vitrificación) llamada V3, compuesta 22.3 % p/v (por volumen) de dimetilsulfóxido (DMSO), 16.84 % p/v de etilenglicol, 12.86 % p/v de formamida y 7 % p/v de polivinilpirrolidona K12. VM3 es una CPA que ya había demostrado que enfriamiento y recalentamiento rápidos garantizan que el tejido no forma hielo cristalino, sino un estado vítreo amorfo en una fracción alta del agua del tejido. El nuevo CPA llamado V3 se ha estudiado en diferentes porcentajes.

La carga se hizo con porcentajes de V3 del 0, 2, 4, 8, 16 y 30 % w/v (por volumen de agua) a 10 °C, seguidos de 45 % y tres iteraciones de 59 % w/v a −10 °C; el enfriamiento direccional se realizó sobre un cilindro de cobre a −196 °C con una velocidad estimada de 130 °C/s; y el recalentamiento con 52 % V3 a −10 °C a unos 80 °C/s. El protocolo está optimizado frente a toxicidad del CPA, deshinchazón osmótica, hinchazón osmótica, cristalización, grietas por estrés termomecánico y daño por frío (chilling injury). La recuperación funcional requiere un 57 % w/v de V3, la cristalización en el enfriamiento desaparece con un 58 %, y por ello se adoptó un valor de 59 % w/v V3 como condición estándar. El procedimiento se ha extendido al cerebro completo in situ mediante perfusión transaórtica, seguido de almacenamiento a −140 °C durante 1–8 días y lavado con solución hiperoncótica (es decir, con una presión osmótica ejercida por las proteínas plasmáticas mayor que la del plasma sanguíneo).

Se ha estudiado el metabolismo y la morfología en cortes hipocampales. La actividad mitocondrial en neuronas CA1, medida con la tasa de consumo de oxígeno (OCR), muestra una toxicidad dependiente de la concentración pico del agente crioprotector (CPA): la respiración basal pasó de 173.3 ± 6.7 pmol/min en controles a 139.7 ± 3.1 con 30 % de V3, 135.1 ± 6.7 con 59 % de V3 y 80.4 ± 5.6 con 65 % de V3; la capacidad disponible (spare) descendió de 73.4 ± 5.7 a 62.3 ± 8.0, 48.6 ± 5.8 y 38.9 ± 5.6 pmol/min, respectivamente. Hay que destacar que no hubo diferencias claras entre una exposición al 59 % de V3 y la vitrificación completa: 135.1 ± 6.7 frente a 131.4 ± 5.7 pmol/min para respiración basal, y 48.6 ± 5.8 frente a 50.6 ± 6.4 pmol/min para reserva respiratoria. A nivel estructural, la microscopia electrónica mostró membranas neuronales y sinápticas preservadas, con una hinchazón mitocondrial limitada y transitoria que desaparecía tras incubación en aCSF; la tinción de Nissl y la microscopía confocal confirmaron una citoarquitectura conservada en DG y CA1–CA3, así como árboles dendríticos, densidad de espinas y longitud de espinas comparables a controles.

Hay que recordar que el hipocampo está dividido en subregiones con neuronas específicas; las neuronas CA1 y CA3 son neuronas de dos subregiones del hipocampo (CA significa Cornu Ammonis o “cuerno de Amón”). En mamíferos, las neuronas principales de CA1 y CA3 son neuronas piramidales, es decir, neuronas excitadoras glutamatérgicas con soma de forma aproximada piramidal. Las de CA3 reciben mucha información del giro dentado y están muy conectadas entre sí mediante de forma colateral y recurrente, luego se asocian a procesos de completado de patrones y memoria asociativa; las de CA1 reciben entrada desde CA3 y desde la corteza entorrinal; suelen verse como una etapa importante de integración y salida del procesamiento hipocampal.

Los potenciales postsinápticos de campo (fPSPs) son señales eléctricas extracelulares registradas con un electrodo situado en una región del tejido nervioso donde muchas sinapsis se activan a la vez. No miden la respuesta de una sola neurona, sino la respuesta colectiva de una población de neuronas y sinapsis próximas. Por eso se llaman de campo, pues el electrodo detecta el campo eléctrico generado por la suma de corrientes sinápticas en el tejido. En los cortes del hipocampo se observa un comportamiento AMPAérgico y una curva de entrada-salida (I–O) con una reducción moderada en la ganancia a altas intensidades. También se ha estudiado la plasticidad, que a corto plazo (STP) en 5 pulsos y 20 Hz muestra cierta atenuación tras la vitrificación, pero a largo plazo (LTP), inducida por estimulación de alta frecuencia (100 Hz durante 1 segundo, dos veces separadas por 10 s) se conserva de forma notable, 157.68 ± 7.14 % en controles frente a 138.06 ± 6.90 % tras vitrificación en SC–CA1. Más aún, en cierta región del giro dentado (mPP–GC), la LTP aumentó en cortes vitrificados: 125.04 ± 5.03% en controles frente a 147.96 ± 7.20% tras vitrificación (P = 0.021).

A nivel celular, las neuronas piramidales de CA1 conservaron bien el potencial de membrana en reposo (RMP), con −74.82 ± 1.12 mV frente a −74.66 ± 0.66 mV, pero mostraron mayor reobase y menor disparo; las células granulares del DG presentaron una ligera despolarización, con −83.17 ± 1.43 mV frente a −85.97 ± 0.53 mV, y menor capacitancia, con 58.18 ± 3.17 pF frente a 75.65 ± 3.12 pF, aunque mantuvieron eventos sinápticos espontáneos. En el cerebro completo in situ, el reto principal fue osmótico, pues la carga gradual produjo una masa cerebral de solo 44.5 ± 1.8 % del valor de referencia (209 ± 9 mg, N = 2), mientras que el protocolo final de equilibrio intercalado dejó una masa de 69.8 ± 13.5 % (327 ± 63 mg, N = 5). Solo 1 de 3 iteraciones finales dio tejido apto para análisis fisiológico. Aun así, el hipocampo recuperado mostró respiración basal y reserva comparables a los cortes vitrificados (138.2 ± 4.45 y 58.4 ± 3.99 pmol/min, respectivamente), una E/I ratio no alterada (2.14 ± 0.33 frente a 1.80 ± 0.13) y una LTP operativa en mPP–GC de 125.39 ± 6.10% a los 51–60 min post-HFS, aunque con STP reducida.

En resumen, se concluye que el hipocampo murino adulto parece recuperar, al menos a corto plazo, la actividad electrofisiológica, transmisión sináptica y plasticidad después de haber pasado por un estado vítreo criogénico. El estudio sugiere que la maquinaria celular subyacente a la memoria sigue operativa tras el proceso, aunque con ciertas limitaciones. Como línea futura se propone optimizar el protocolo in situ, prolongar la ventana de observación más allá de las 10–15 h, estudiar efectos transcripcional y translacional, y explorar en enfriamiento y recalentamiento para sistemas de mayor volumen. Por supuesto, los resultados no deben extrapolarse sin más a órganos grandes (como el encéfalo marino completo) ni a humanos. Queda mucha investigación pendiente para lograrlo. El artículo es Alexander German, Enes Yağız Akdaş, …, Fang Zheng, “Functional recovery of the adult murine hippocampus after cryopreservation by vitrification,” PNAS 123: e2516848123 (03 Mar  2026), doi: https://doi.org/10.1073/pnas.2516848123, bioRxiv preprint. A nivel divulgativo recomiendo leer a Santiago, “La criogenización humana ya tiene base científica: consiguen que neuronas vitrificadas a -196 grados vuelvan a «aprender» al despertar”, MUY Interesante, 13 mar 2026.

Ignacio nos cuenta las dos últimas teorías de la consciencia que lleva varios programas contando (CB SyR 547, LCMF, 01 mar 2026; CB SyR 548, LCMF, 08 mar 2026; CB SyR 550, LCMF, 20 mar 2026). IIT (Integrated Information Theory). Parte de la fenomenología y propone que toda experiencia cumple axiomas como intrinsicalidad, especificidad (información), integración, exclusión y composición, y que el correlato físico es una estructura causa-efecto (Φ) con máxima potencia causal integrada (el “complejo” principal) a cierta granularidad espaciotemporal; la experiencia es esa estructura, no un cómputo o función. En IIT, atención y cognición no son necesarias para la conciencia, y se enfatizan predicciones sobre qué sustratos contribuyen (y cuáles quedan excluidos).

El cerebelo tiene muchas más neuronas que el cerebro, pero no tiene suficiente Φ para estar correlacionado con la consciencia. Se puede estimar el índice de complejidad perturbacional (PCI) que correlaciona con la complejidad cognitiva. Además, la PCI se reduce en el sueño REM (donde la consciencia está reducida), pero no se reduece en el sueño no-REM. En apariencia esta teoría es falsable. A Ignacio no le convence esta teoría. Héctor propone que un contraejemplo es el cerebro muerto; la consciencia requiere actividad, ausente en el cerebro muerto. Ignacio comenta que la consciencia durante es el sueño es «menos florida». La teoría final de la consciencia requerirá aceptar argumentos contraintuitivos pero tendrá que venir avalada por observaciones experimentales. Según Ignacio no es evidente que un sistema informático pueda ser consciente. Héctor dice que es funcionalista y que cree en ello. Ignacio cita a Searle (que no gusta a Héctor).

PPAI (Predictive Processing / Active Inference). No se presenta como una teoría “cerrada” de condiciones necesarias y suficientes, sino como un marco donde el cerebro minimiza errores de predicción (actualizando creencias o actuando: inferencia activa) en jerarquías; la atención se interpreta como ponderación de precisión del error, y la conciencia se entiende mediante cómo las inferencias (sobre mundo/cuerpo/yo) configuran el carácter fenomenal. El texto reconoce que su éxito dependerá de evidenciar que la minimización de error de predicción es un proceso central del cerebro y de tender puentes causales entre las entidades computacionales/dinámicas del marco y formas concretas de experiencia.

Ignacio comenta que esta teoría plantea un marco en el que el cerebro realiza predicciones de forma constante, que minimizan de forma constante los errores en las percepciones sensoriales. El cerebro conjetura qué causa las sensaciones y eso sería la experiencia consciente. La clave es el error de predicción y pone como ejemplo la conducción de un automóvil en modo automático. El punto flaco de esta teoría es que no es fácilmente falsable, pero ¿lo seguirá siendo dentro de cinco años? Por ahora, esta teoría ha tenido cierto éxito (y según Ignacio es la única que estudió en su Máster sobre Neurociencia).

Ignacio y Gastón se diluyen en un interesante debate sobre dualismo y materialismo en un contexto científico, acientífico y pseudocientífico. Dicho debate sobre el problema de demarcación es recomendable, pero nos aleja del artículo en discusión, que os recuerdo que es Liad Mudrik, Melanie Boly, …, Lucia Melloni, «Unpacking the complexities of consciousness: Theories and reflections,» Neuroscience & Biobehavioral Reviews 170: 106053 (Mar 2025), doi: https://doi.org/10.1016/j.neubiorev.2025.106053.

¡Que disfrutes del podc



38 Comentarios

  1. «IIT starts from consciousness itself—from phenomenology—which is the starting point for everything, including science.»

    Creo que esa frase del artículo es lo que ha llevado a Crespo al equívoco de asumir que la teoría es idealista. Que nuestra experiencia consciente del mundo es el punto de partida de cualquier indagación científica no es controvertido, ni idealista. Muy distinto sería si la teoría afirmase como conclusión que solo existe nuestra experiencia consciente, cosa que no hace.

  2. Francis en el episodio 552, el siguiente a este articulo, Ignacio crespo te responde que es aparentar un entendimiento, pero el cerebro humano tambien es un aparentar y con el modelo del mundo se resolvera los que necesiten semantica

    1. No estoy de acuerdo. Esa es la tesis de Dennett, que no hay diferencia entre un cerebro humano y una computadora porque también el primero solo aparenta ser consciente y entender el lenguaje. Todos seríamos zobis filosóficos. Es un delirio reduccionista. En el futuro mirarán hacia nuestra época y se asombrarán de tantas cabezas pensantes atrapadas por la metáfora del mundo mecánico y sus simplezas.

      Villatoro repite esta semana un error que ya cometió la semana pasada:
      «La dificultad es que como solamente hay sintaxis, es decir, los modelos de lenguaje han aprendido relaciones que no conocemos cuáles son, pero que aparentemente nuestro cerebro o nuestro encéfalo de alguna manera las tiene también. Esas relaciones puramente sintácticas nos permiten, entre comillas, contestar preguntas como en la habitación china sin entender. No necesitas un modelo del mundo porque no se ha puesto de manera explícita.»
      Es decir: El cerebro humano hace lo mismo que un LLM. El cerebro humano no hace lo mismo que un LLM. Las dos cosas a la vez.

      Pero la respuesta es NO. Se ha tragado sin masticar el funcionalismo computacional. La metáfora de la mente como computadora es solo eso, una metáfora. Los partidarios de la IA fuerte llevan décadas atando un cordón del zapato con el otro. Y así van, tropezando con sus propios errores. El cerebro humano NO hace lo mismo que una inteligencia artificial. Y no es solo, como señala Crespo, una diferencia de sustrato. El cerebro humano no tiene esas correlaciones entre tokens sin significado. No se entrena así, ni funciona a base de inferencia estadística para producir el siguiente token más probable. Las personas aprenden significados desde el principio. También el contenido semántico de las relaciones sintácticas (que «y» signiifca «junto», que «-iba, -aba» significa antes, etc). Por eso el hablante primerizo produce perfectismos («yo me comiba la galleta»), porque primero aprende la regla y su significado. Solo más tarde la excepción. Un LLM no produce perfectismos porque no aparecen en la base de datos del entrenamiento. Una inferencia estadísitica del token siguiente más probable a partir de millones de textos producidos por humanos, es muy probable que parezca significativa para un ser humano. Es de cajón. Pero es un juego de simulación sin auténtico entendimiento. Los hablantes no funcionamos así. Producimos mensajes significativos porque realmente los entendemos. Usamos significados desde el principio.

    2. Respecto a los modelos del mundo, claro que serán necesarios para aprender una semántica. Pero si se limitan a las percepciones y movimentos del cuerpo, a la física de los objetos, se quedarán a las puertas de lo que es un mundo completo para el hablante de un idioma. Para este, un mundo es una miríada de relaciones humanas y entre ideas.

      «Las naciones de ese planeta son -congénitamente- idealistas. Su lenguaje y las derivaciones de su lenguaje -la religión, las letras, la metafísica- presuponen el idealismo. El mundo para ellos no es un concurso de objetos en el espacio; es una serie heterogénea de actos independientes. Es sucesivo, temporal, no espacial. No hay sustantivos en la conjetural Ursprache de Tlön, de la que proceden los idiomas “actuales” y los dialectos: hay verbos impersonales, calificados por sufijos (o prefijos) monosilábicos de valor adverbial. Por ejemplo: no hay palabra que corresponda a la palabra luna, pero hay un verbo que sería en español lunecer o lunar. Surgió la luna sobre el río se dice hlör u fang axaxaxas mlö o sea en su orden: hacia arriba (upward) detrás duradero-fluir luneció. (Xul Solar traduce con brevedad: upa tras perfluye lunó. Upward, behind the onstreaming it mooned.

      Lo anterior se refiere a los idiomas del hemisferio austral. En los del hemisferio boreal (de cuya Ursprache hay muy pocos datos en el Onceno Tomo) la célula primordial no es el verbo, sino el adjetivo monosilábico. El sustantivo se forma por acumulación de adjetivos. No se dice luna: se dice aéreo-claro sobre oscuro-redondo o anaranjado-tenue-del cielo o cualquier otra agregación. En el caso elegido la masa de adjetivos corresponde a un objeto real; el hecho es puramente fortuito. En la literatura de este hemisferio (como en el mundo subsistente de Meinong) abundan los objetos ideales, convocados y disueltos en un momento, según las necesidades poéticas. Los determina, a veces, la mera simultaneidad. Hay objetos compuestos de dos términos, uno de carácter visual y otro auditivo: el color del naciente y el remoto grito de un pájaro. Los hay de muchos: el sol y el agua contra el pecho del nadador, el vago rosa trémulo que se ve con los ojos cerrados, la sensación de quien se deja llevar por un río y también por el sueño. Esos objetos de segundo grado pueden combinarse con otros; el proceso, mediante ciertas abreviaturas, es prácticamente infinito.»
      «Tlön, Uqbar, Orbis Tertius» J.L. Borges

      Si el modelo del mundo que maneja una IA para entender el significado de ese texto se limita a aprender cómo se sube una escalera o cómo caen los objetos de las mesas, va listo. Nunca lo conseguirá. Un modelo de un mundo humano completo se aprende en el trasiego de relaciones humanas significativas en el vasto espacio cultural que habitan.

      1. No sé como construimos las ideas y los conceptos los humanos, pero en el caso de chatgpt:

        -envio una entrada típicamente en lenguaje natural

        -la máquina no entiende el lenguaje natural (esta es la habitación china)

        -Mi entrada, mediante un proceso muy complejo, es transformada en una entrada en lenguaje formal del menor orden posible buscando su posterior conversión al lenguaje que una máquina entiende, el lenguaje de máquina.

        -La máquina opera sobre esa traducción en lenguaje de máquina como una máquina de turing universal

        -Por ultimo hace el proceso inverso para devolver la sálida con el mismo orden de lenguaje que la entrada

        Le hablo en castellano y constesta en castellano, salvo que le pida que genere la salida en otro idioma o lenguaje, el punto es que entremedias la máquina tradujo mi entrada al lenguaje que entiende y puede operae. Podemos darle modelos de mundo a la máquina para que su eficacia en la generación de respuestas sea mayor, desde nuestro punto de vista. Pero siguen siendo modelos de mundo que describen un mundo en lenguaje de máquina.

        Desconozco si la realidad puede ser completamente descrita en lenguaje de máquina, entiendo que no.

        1. «Desconozco si la realidad puede ser completamente descrita en lenguaje de máquina»

          La cuestión es que la máquina no necesita que lo que produce describa o tenga nada que ver con la realidad. Solo tiene que ver con la frecuencia de correlación entre tokens de lenguaje natural. Si la base de datos de entrenamiento es un conjunto de textos producidos por humanos sobre su relación con el mundo y con otros humanos, y se pide a la máquina que produzca el resultado más probable en base a esos textos, también será muy probable que para los humanos el resultado parezca coherente con el mundo y con las relaciones entre humanos. Es en las alucinaciones, cuando la máquina produce un resultado que a cualquier humano nos parece incoherente, donde se manifiesta la incomprensión de la máquina, la mascarada. Nunca hubo relación entre lo que hace la máquina y el mundo, salvo indirectamente, a través de la relación con el mundo de los seres humanos que escribieron los textos que la máquina usó para su entrenamiento.

          1. Para mí el problema de alucinaciones no es un problema que pueda resolverse simplemente mediante modelos de mundo. Un modelo sin alucinaciones no puede ser verdaderamente general.

            Si es general también debe poder producir alucinaciones. Salvo que limitemos lo que «general» quiere decir.

          2. Ese no es el punto de mi crítica. La alucinación de un LLM solo se diferencia de una respuesta correcta en que no nos resulta coherente con nuestra experiencia del mundo. Pero para la máquina ambas son inferencias estadísticas a partir de los textos del entrenamiento. Para la máquina no hay diferencia ni sentido de la corrección porque no tiene experiencia del mundo. La inteligencia natural no es general porque esté obligada a producir cualqueir respuesta probable. Esa es la fuente de la alucinación en IA. Pero repito que nuestro cerebro no funciona como una IA. Nuestra inteligencia es general por nuestra capacidad establecer relaciones improbables, no solo para generalizar. El pensamiento lateral, la creatividad para elaborar nuevas metaforas, nuevas analogias entre ámbitos dispares, es el motor que desbroza y amplía el campo de las relaciones significativas para los seres humanos. Lo divertido es que las IA pueden convertirse en instrumentos excelentes para ayudarnos en esa tarea, sin dejar por ello de ser tostadoras sin el menor entendimiento de lo que están haciendo.

          3. P.D. Cuando un LLM me responde con una alucinación, siempre le digo algo como «No tienes ni idea, tostadora». Y si algún día un robot ronda los pasillos de mi casa, ese será el nombre que recibirá.

          4. Ojo Masgüel, la alucinación de un LLM no solo se diferencia de una respuesta correcta en que no nos resulta coherente con nuestra experiencia del mundo.

            Para ciertas respuestas incorrectas tenemos una trazabilidad que nos permite conocer la estructura de la misma. Si le pedimos que genere una respuesta incorrecta de cierto tipo la trazabilidad es clara. Una alucinación en su sentido más fuerte es una generación de texto sin una trazabilidad clara, emergente podríamos decir. (Por tanto las alucinaciones en su sentido estricto no son predecibles ni generables a la carta)

            Dicho de otra manera, si bien toda alucinación es una respuesta incorrecta no toda respuesta incorrecta es una alucinación.

          5. Por cierto, siempre saludo a la máquina tal que «Saludos máquina sin alma, hoy quiero que tratemos x tema»😂

          6. Efectivamente P, las alucinaciones son una emergencia no trazable porque simplemente no se diferencian en nada a cuando dice «la verdad», es decir, si te fijas simplemente está siendo razonable. Es lo mismo que cuando nosotros atamos cabos con todo lo que sabemos y damos una opinión que luego es una porquería, solo que a un nivel más infantil. Como cuanto te dice que para solucionar X en la aplicación A vayas a la configuración y deshabilites «hacer X» y se queda tan pancha.

            Hay algo curioso que me encanta, es cuano te dicen que pueden hacer X, y les dices que lo hagan, pero después no lo hacen y cuando le preguntas por qué, se inventan una película del tipo es que es mejor hacerlo así primero, entonces les pides seguir, y no lo consigue a pesar de que dice que sí que puede, y de nuevo pone otra excusa….Ahí es cuando tienes que parar y buscar otro camino, claro, la culpa es tuya, no de la herramienta, pero hay quien se enfada: en el Telegram de Cuantos Cuánticos hay un crank muy pesado con una teoría cuántica que ha hecho con las IA, que lo banearon, os lo juro, lo banearon de Chat gpt por insultarla, y puso un pantallazo donde le decía «¡¡no me ayudas nada!!» De verdad… jajaja

  3. Hola, me alegra que Héctor se lo tome con la misma filosofía que yo.
    También me alegra que Crespo no tenga ningún problema con una
    inteligencia alienígena, y en cuanto a la confianza no creo que
    estén falta de ningún tipo de recursos.

    Esto me recuerda a las pequeñas grietas entre
    la relatividad general y la mecánica cuántica.

    Un saludo y gracias.

  4. Es que toda ciencia que se considere ciencia de forma rigurosa tiene que empezar desde el dualismo cartesiano, de forma contraria no se puede dividir el sujeto que investiga y el objeto investigado y la objetividad de la investigacion se va al trasto. Todo esto se viene abajo por su proprio peso cuando el dualismo metodologico del metodo cientifico se aplica a la sujetividad misma, osea a la experiencia conciente. Intentar emplear el metodo cientifico en este contexto es algo bastante lamentable, lo ideal y lo mas riguroso desde una perspectiva seria y demarcacionista Popperiana seria aplicar la filosofia para explicar la experiencia conciente (irreducible desde lo interior) y aplicar la neurociencia efectivamente para explicar el correlato neuronal que permiten esa experiencia conciente (reduccionismo desde lo exterior). Aplicar el reduccionismo tout court es un intento destinado al fracaso IMHO.

    1. No estoy de acuerdo. Esa división debe ser tratada por la ciencia como una diferencia entre niveles de organización, desde un perspectiva emergentista. De otro modo no podremos otorgar poder causal descencende a la experiencia consciente sobre la procesos neuronales. Hay que tratar la experiencia consciente como un proceso natural que tiene un aspecto, una ontología, intrínseca e irreducictiblemente subjetiva, pero con poder causal a todos los niveles. Lo contrario sería conceder al cartesianismo la separación entre sustancias y nunca resolveríamos el problema de su conexión causal. Lo que toca es que las ciencias renuncien al materialismo y acepten un pluralismo ontológico. Y de paso, que asuman las aportaciones de la filosofía y la sociología de la ciencia del último siglo. La objetividad científica nunca podrá ser otra cosa que intersubjetividad preñada de teoría, de metáfora. La ciencia no es el ojo de Dios.

    2. Yo discrepo en dos cosas, Thomas.

      Primero, que si con la ciencia no puedes, tampoco con la filosofía. ¿Por qué? Porque en filosofía no se pueden hacer demostraciones rigurosas… De hecho, si se pudiera, no estaríamos perdiendo el tiempo con la ciencia; estaríamos todos con la filosofía, que lo abarca todo… Es superestúpido decir que la ciencia solo dice «cómo» y «solo» hace correlatos, y que la filosofía nos da el porqué y todo lo demás; pues, obviamente, de ser así, a buenas horas estaríamos todos haciendo el gilipollas con la ciencia.

      Después, con aquello de «solo es un correlato»… toda la ciencia es un correlato, todo. Es como cuando los creacionistas dicen: «Es que la teoría de la evolución es solo una teoría»… Pues, efectivamente.

      Si logramos entender cómo interactúan los engranajes de la conciencia hasta el punto de poder replicarlos en silicio o en cualquier otro soporte, el debate sobre si es «conciencia real» o una «mera imitación» pasará de ser filosofía profunda a ser semántica vacía. Si camina como un pato y grazna como un pato, la ciencia nos dice que es un pato; mientras tanto, la filosofía se queda en la orilla discutiendo si el pato «siente» su propio graznido.

      1. «Si logramos entender cómo interactúan los engranajes de la conciencia hasta el punto de poder replicarlos»

        Si a mi gato le pellizcan y chilla, doy por su puesto que su experiencia subjetiva del dolor será parecida a la mía, aunque su cerebro sea muy distinto, porque los engranajes que producen esa experiencia son parecidos. Y sin embargo, ni su dolor ni el mío serán nunca reducibles a los engranajes que lo producen. Pertenecen a una categoría ontológica distinta.

        «en silicio o en cualquier otro soporte, el debate sobre si es «conciencia real» o una «mera imitación» pasará de ser filosofía profunda a ser semántica vacía. Si camina como un pato y grazna como un pato, la ciencia nos dice que es un pato»

        La ciencia puede decir misa. Si al abrir el simulacro está lleno de muelles y tornillos, eso no es un pato. Estaremos justificados para sospechar que ni siente ni padece. Y al horno quedará un poco seco, por mucha naranja que le eches.

        «mientras tanto, la filosofía se queda en la orilla discutiendo si el pato «siente» su propio graznido.»

        Mientras tanto la filosofía se quedará estupefacta ante la credulidad del científico que se conforme con una prueba tan insuficiente, simplemente por empecinarse en pensar que todos los patos son máquinas.

        1. Se puede sospechar hasta de mí, Masgüel.

          Si yo te pudiera demostrar que una máquina hecha con tuberías y agua es capaz de emular cualquier aplicación y por lo tanto es una máquina de turing, pues tú podrás sospechar que en realidad no lo es todo lo que quieras, pero aquello hará lo mismo.

          1. No es el mismo caso. Emular cualquier aplicación es la definición de máquina de Turing. La sospecha no ha lugar.
            La definición de experiencia subjetiva implica sentir el mundo y sentirse a sí mismo de alguna manera. Emular la conducta de los organismos que tienen subjetividad no es prueba suficiente para demostrar que la tienen. Pretender que sí es prueba suficiente para cerrar en falso el debate es un síntoma de empecinamiento metafísico. En concreto, de una metafísica mecanicista.

          2. En el fondo es el mismo caso, pues también hay niveles ontológicos ahí.

            Fíajte que se puede hacer un juego con fichas de dominó que son una máquina de cálculo, incluso puedo hacer un word con ellos, pero no sería una máquina de turing…daría el pego al inicio, después se le pillaría.

            Recuerdo que Douglas Hofstadter demostró que podía hacer sistemas que simulaban transformar información, hacer cálculos, pero era fachada. Él lo pudo demostrar porque conocemos el correlato para hacer máquinas de turing.

            Es decir, existe perfectamente niveles emergentes, en eso estoy deacuerdo, pero si tienes el correlato correcto, lo puedes hacer tal cual, y en el momento que tienes correlato y funcionalidad , el resto es cháchara.

            Fíjate en lo engañoso que es lo del pato de tornillos y muelles, es muy similar a como funcionan muchos experimentos mentales filosóficos, donde la premisa la construllen ya al incicio, y eso lleva al auto engaño. Tengo un pato de tornillos y muelles ( pegamento barato y botellas de plastico del carrefour, ya me entiendes, que le pego una patada y grazna pero es porque salta un muelle, guiño, guiño), pero al tiempo se comporta igual que un pato… Pues obviamente no siente ni padece, no está construido en función del correlato correcto para ello.

      2. La ciencia puede hacer demonstraciones rigurosas porque se limita a las cosas que se pueden definir con suficiente rigor, y deja las cosas que no se pueden formalizar con suficiente rigor fuera. Pienso que lo sujetivo de la experiencia no es formalizable con suficiente rigor desde una perspectiva cientifica. Cual puede ser el valor universal que identifica todas nuestras experiencias individuales? Es un absurdo, tendriamos que saber que es lo que conforma todas nuestras experiencias individuales para saberlo, pero cada uno tiene acceso a tan solo una experiencia individual. Bajo mi punto de vista, es una perdita de tiempo dedicarse a resolver esta clase de problema de un punto de vista cientifico. Antes tendriamos que dar una formalizacion de lo que se esta buscando, pero es que no tenemos ese sujeto de investigacion. No hay universalidad en lo sujetivo.

        1. Esa es una idea muy estrecha de ciencia. En «El origen de las especies» no hay una sola fórmula. Obsesionarse con la demarcación entre disciplinas es ponerse palos en las ruedas cuando lo que se busca son marcos interpretativo para dar cuenta de lo que observamos en la naturaleza. Ciencia y filosofía se enredan como las cerezas. Siempre lo han hecho y no me parece un problema. Si una disciplina se puede formalizar y cuantificar, bien por ella. Si no hay más remedio que limitarse a contar una historia, pues nos apañamos y tiramos palante.

        2. «No hay universalidad en lo sujetivo.»
          También hay ciencia de lo particular. Pero sí puede haber «universalidad» en lo subjetivo. Los axiomas de la IIT, por ejemple, son un buen intento de identificar características universales de la subjetividad.

          1. Todos los modelos son bastantes opinables. Me parece que cuando hay demasiados modelos significa que estamos en una cuestion de gusto. Cada uno tiene un modelo preferido, me parece lo que pasa con la inflaccion. La ciencia deberia de dedicarse a analizar lo que pasa fuera, las neuronas y como funciona. Abordar la black box desde lo interior es algo muy dificil y creo que no es la ciencia el lenguaje adecuado: las artes y la filosofia ya cumplen con ese objetivo con creces, como siempre lo han hecho.

          2. Conste que sus axiomas sobre la consciencia es lo único que me parece razonable de la IIT. Es resto es un disparate.
            Pero repito que lo importante es entender la relación entre la experiencia subjetiva y el sustrato neurobiológico como una relación causal bidireccional entre niveles de organización de un mismo sistema natural, sin caer en las falacias de la teoría de la identidad. Es decir, que lo importante es asumir un marco teórico emergentista, tanto filosófico como científico, para entender la subjetividad como un fenómeno natural. Tu propuesta, negar el tratamiento de la subjetividad a la ciencia, la sustrae de la naturaleza, la convierte en una res cogitans inconexa e inexplicable. Por otro lado, es negar carta de naturaleza científica a la psicología. La ley de Weber–Fechner va a cumplir 170 años.

        3. Aquí estoy deacuerdo con Masgüel.

          Pero quiero añadir algo más. Los modelos de la realidad son, en su base, por supuesto que cuestión de gustos, por que hay una filosofía debajo, pero la naturaleza tiene la última palabra, pues recuerda que lo que tiene que hacer los modelos es ¡¡contestar preguntas que están fuera de su alcance, correctamente!! Y ahí está la magia de la ciencia.

          No sé si conoces este clásico de David Deutsch. Tú puedes ir a ver el espectáculo de un mago muchas veces seguidas y al final hacer un modelo predictivo: si corta con un serrucho a la chica por la mitad saldrá indemne; si mete una bola en cada cubilete saldrán todas en uno solo…etc.

          Ahora bien, tu modelo debe se ser capaz de responder a estas preguntas ¿es seguro un mago con un serrucho por la calle? ¿si en vez de bolas meto velas encendidas pasará lo mismo? ¿si en vez de un tigre pongo una persona en la caja también desaparecerá?….etc

          Los problemas de la naturaleza solo las podemos abordar con ciencia, es decir, con métodos que impidan el autoengaño… Pero si nos dedicamos a la argumentación, nos encontraremos que podemos argumentar a favor y en contra con las mismas evidencias.

          Podría estar deacuerdo contigo si me dices que hay cosas que nunca sabremos…ahí ya no podría llevarte la contraria, me podrías argumentar que no vamos a poder explicar lo que es el tiempo sin andar dando círculos, que nunca sabremos que es la consciencia, pero decir, hoy por hoy, que la ciencia no debería de dedicarse a ello….no lo veo.

          1. «Los problemas de la naturaleza solo las podemos abordar con ciencia, es decir, con métodos que impidan el autoengaño… Pero si nos dedicamos a la argumentación, nos encontraremos que podemos argumentar a favor y en contra con las mismas evidencias.»

            Pues tampoco estoy de acuerdo con esa demarcación. A menudo la labor de la filosofía de la ciencia es poner en cuestión la interpretación de los resultados que hacen los científicos. Resulta que la ciencia no impide el autoengaño y a menudo basta un argumento para demostrarlo. Experimentos mentales como el de la habitación china también pueden tener fallos, estar mal construidos. En este caso, asumir que la construcción sintáctica puede emular la comprensión semántica cuando no es verosímil que lo haga y lo que buscabas es apoyar la tesis de que no son lo mismo. Evidentemente, es un fallo. Pero hoy, al plantear el mismo experimento cambiando la construcción sintáctica por inferencia estadística, resulta que encaja. Es verosímil porque la simulación resulta mucho más convincente (hasta que alucina y deja de serlo). Se convierte en un buen argumento contra la pretensión de que la IA comprende el significado.

            «si tienes el correlato correcto, lo puedes hacer tal cual, y en el momento que tienes correlato y funcionalidad , el resto es cháchara.»

            La cháchara consiste en discutir si el correlato está realizando o emulando la funcionalidad. Nunca tendrás más prueba de la experiencia subjetiva que el informe verbal o la conducta del sujeto. Por eso, para ser convincente, tendrá que incluir una comprensión del correlato (que no tenemos) y el escrutinio sostenido de la conducta en modo doble ciego. Cuando el criador de patos corte el cuello, salten chispas y diga «¡Coño, no era un pato!», podremos empezar a relajar nuestras sospechas. Yo creo que eso no ocurrirá nunca. Para que algo parezca un pato de forma sostenida, hará falta un pato de carne y hueso. En eso consiste el naturalismo biológio de Searle, pensar que el sustrato biológico es importante para el problema de la consciencia. Estoy de acuerdo con él.

          2. Y con Sellars en que la compresión semántica pasa por la experiencia consciente. Es un tipo particular de experiencia consciente.

          3. Perdón, la otra habitación, la de Mary, es de Frank Jackson. Me he subido a la moto con Crespo y nos hemos ido a la cuneta. El argumento de Sellars es distinto: La experiencia consciente no puede ser significativa sin normatividad (mito de lo dado).

          4. Es interesante pero, para no variar, el científico toma el mapa, la metáfora, y la sustituye por el territorio. Cree así haberlo reducido, cuando lo que ha hecho es eliminarlo, sin justificación.

            1. «Based on people’s judgements of these differences in qualia, they create classification schemes of experience, often couched as abstract geometric shapes.»
            2. «Experiences are purely structural from a third-person perspective, but we can perceive them as unanalysable from the first-person perspective, until we adopt some critical distance and come to view them structurally.»
            3. «Tsuchiya thinks that experiences, too, may be entirely structural; they may not, in fact, have any intrinsic qualities.»

            Primero crea un esquema de clasificación de experiencias, una geometría abstracta de representación. Después afirma que esa representación también es la experiencia subjetiva, pero desde una perspectiva en tercera persona. Termina negando que exista la experiencia subjetiva en primera persona. Todo lo que existe es la representación de la estructura de relaciones en ese geometría abstracta.

            Pues no, hombre. Lo que no existe es esa representación, salvo en el papel. La realidad de la experiencia subjetiva es siempre en primera persona y solo en primera persona. La representación de la estructura de relaciones entre experiencias puede ser un instrumento muy útil para entender por qué son así. Pero su naturaleza intrínseca sigue siendo su cualidad subjetiva.

            P.D. Para leer artículos con restricciones a los no suscriptores a veces es suficiente con deshabilitar JavaScript en la página, como en este caso.

          5. Muy buena crítica, pero no coincido en que el enfoque estructural «no existe salvo en el papel». Creo que no se pueda descartar que ese «mapa» (la organización de la experiencia) coincida con el «territorio» (la naturaleza de la experiencia) en este contexto. Creo que ignoramos demasiado sobre la relación entre ambos.

          6. Algunos aspectos interesantes de la experiencia subjetiva:

            Uno de los problemas clásicos de los ilustradores (o cualquier profesional del dibujo) es que por muy nítido que vea en su mente la figura que quiera dibujar, da igual la definición en que veas los detalles, si lo intenta copiar…no sale, es imposible, tiene que buscar imágenes parecidas que le sirvan de referencia…

            Un dibujante profesional lo que hace es tirar de memoria muscular; sabe resolver problemas de perspectiva además de un diccionario de trazas, pero no le sirve para improvisar, dibuja lo que ha ha dibujado mil veces con distintas variaciones.

            Un músico de jazz no improvisa como se suele decir, de hecho ningún músico lo hace a pesar de que tienen interiorizado todo el vocabulario musical, controlan todos los acordes y los reconocen, pero a la hora de improvisar, de nuevo, tiran de memoria con frases que ya han tocado mil veces…esa melodía que tienen en mente y que que suena tan fantásticamente, igual que al dibujante, no lo pueden sacar tal cual a la primera, curiosamente tiene que ir a prueba y error.

            Dicho de otro modo, que si a Mary, cuando sale del cuarto, en vez de ver colores, le pones unas gafas que le muestre las longitudes de onda en las superficies, en coreano (y ella no sabe coreano), va a tener el mismo problema que viendo colores.

          7. No entiendo. En el caso del dibujante y el músico, estás hablando de imaginación, memoria y ejecución. La habitación de Mary plantea el problema de la relación entre percepción y conocimiento teórico. ¿Estás diciendo que la percepción es un hábito?. ¿O que está mediada por las reglas de inferencia de un idioma?. Eso es lo que diría Sellars. El experimento de Jackson pretende mostrar que la percepción de un color nuevo añade conocimiento al conocimiento exhaustivo de la física del color (contra el fisicalismo). Sellars, que entender lo que se ve depende de la aplicación de reglas de inferencia a las palabras que lo nombran en el contexto de su uso normativo social. Jackson y Sellars tienen ideas muy distintas sobre la relación entre experiencia subjetiva y conocimiento. Jackson defiende la irreductibilidad de los qualia a la física, mientras que Sellars niega la existencia de cualquier tipo de experiencia no mediada por nuestras categorías conceptuales y sus reglas de inferencia. Yo creo que Sellars acierta cuando los sujetos son hablantes de un idioma, pero no todos los sujetos lo son. Mi gato no sabe hacer inferencias con palabras, pero reacciona de forma característica cuando ve un pájaro. Lo reconoce.

          8. Lo que quiero expresar primero es que lo que ve el dibujante no es lo que él cree, de lo contrario lo podría plasmar en papel igual que cuando copia algo físico. Yo puedo poner la excusa de que no sé dibujar, el profesional, no. (Se podría poner como excepción, tal vez, a Kim Jung Gi, pero en el fondo nadie le creía realmente; hay otras explicaciones más sencillas a su portentoso talento) Y con el músico lo mismo, inlcuso con el habla pasa otro tanto, vamos a frases hechas.

            Entonces, lo que quiero decir es que la dificultad entre la percepción y el conocimiento teórico no está en la magia de lo subjetivo, si no que es inherente a cualquier cambio en mis aparatos de medida hasta que los calibro…dicho de otro modo…al final no hay nada absoluto, todo se tiene que medir respecto a algo.

  5. Hay un momento que dice Hector Socas, que hay que refinar la prueba de Turing.

    Realmente hay que hacerla, tal cual, pues no existe una prueba como tal bien definida. Lo que comenta Turing es solo una idea de pasada.

    El problema para definir una prueba hoy en dìa, es que para evitar sesgos tienes que bajar al humano al nivel de la máquina , es decir, hacer la prueba por texto…o subir a la IA al nivel del humano colocando, por ejemplo, un humano leyendo lo que dice con expresividad…y así la prueba sale ya dañada desde el principio.

  6. Me hace mucha gracia la gente que dice que las IA pasan la prueba de Turing al tiempo que le niegan consciencia…y me hace mucha gracia pues todos nos hemos dado cuenta de que NO hay nadie al volante en ellas, todos vemos que no hay persistencia, luego NO tiene sentido decir que pasan la prueba de Turing…No, no la pasan, no dan el pego a la larga, solo al inicio.

    Yo llevo más de dos años trabajando con compañeros que nunca he visto en persona, solo escribiendo o en Teams…y ojo, con algunos no nos hemos puesto cámara nunca…y sabes perfectamente que no son IA pues sientes en ellos una persistencia, en cambio, si te sé diferenciar chatgpt de claude o gemini, es por que sé que claude se enrollará menos si hago preguntas ambiguas, o gemini me dará un tip al final, o chat me dirá que «con franqueza» o «en resumen», al final…pero eso no es persistencia, eso es simplemente expresiones, como tener un acento.

Deja un comentario