Podcast CB SyR 549: Alucinaciones de la IA, engranando fluidos en rotación, mapa de la materia oscura y la inteligencia biológica sintética

Por Francisco R. Villatoro, el 13 marzo, 2026. Categoría(s): Astrofísica • Ciencia • Física • Informática • Noticias • Physics • Podcast Coffee Break: Señal y Ruido • Recomendación • Science ✎ 13

Te recomiendo disfrutar del episodio 549 del podcast Coffee Break: Señal y Ruido [iVoox AiVoox BApplePod AApplePod B], titulado “Agujeros Negros; IAlucinaciones; Engranajes; Materia Oscura; Doom Neuronal”, 12 mar 2026. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. Cara A: Evento cientófilo para ver el eclipse del 12 de Agosto (6:00). El libro de Gastón: Agujeros negros. De la relatividad general a la información cuántica (14:30). ¿Por qué alucinan los LLM? (28:00). Cara B: ¿Por qué alucinan los LLM? (Continuación) (00:00). Engranajes que no se tocan (25:40). El mejor mapa de materia oscura hasta la fecha (49:10). Cortical Labs pone su sistema con neuronas biológicas DishBrain a jugar al Doom (1:11:40). Señales de los oyentes (1:48:40). Imagen de portada de Héctor Socas Navarro. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».

¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). También puedes apoyarnos vía iVoox (https://www.ivoox.com/support/172891). Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!

Descargar el episodio 549 cara A en iVoox.

Descargar el episodio 549 cara B en iVoox.

Como muestra el vídeo participan por videoconferencia Héctor Socas Navarro @HSocasNavarro /@hectorsocas.bsky.social / @HSocasNavarro@bird (@pCoffeeBreak / @pCoffeeBreak.bsky), Luisa Achaerandio @LuiAcha@LuiAcha.bsky (solo cara B), Silvana Tapia (solo cara B), Juan Carlos Gil Montoro @ApuntesCiencia / @ApuntesCiencia.bsky / @ApuntesCiencia@astrodon, Gastón Giribet @GastonGiribet (solo cara A), y Francis Villatoro @eMuleNews / @eMuleNews.bsky / @eMuleNews@mathstodon. Por cierto, agradezco a Manu Pombrol @ManuPombrol el diseño de mi fondo para Zoom; muchas gracias, Manu.

Tras la presentación, Héctor recuerda el evento cientófilo para ver el eclipse del 12 de agosto que organiza Alicia Hurtado en Medinaceli (Soria)(contacto por Whatsapp). Alicia ha creado un canal de Whatsapp sobre esta quedada. Hay opciones con y sin alojamiento. Más detalles en el canal de Whatsapp.

Héctor anuncia la entrevista que han realizado con motivo del aniversario de AlphaGo a dos investigadores de DeepMind (en la entrevista participan María Ribes, Alberto Aparici y Juan Carlos). Recuerda la jugada (movimiento) 37 del 10 marzo de 2016 que realizó AlphaGo contra Lee Sedol.

Gastón nos presenta su nuevo libro «Agujeros Negros. De la relatividad general a la información cuántica» Salta el Pez (2026). La contratapa es de José Edelstein y la ilustración es de Cristian Turdera. El libro sale el 20 de marzo en Argentina (ya se puede adquirir en preventa por 32 000 pesos, unos 20 euros); también se podrá conseguir en otros países latinoamericanos. Pero tardará cierto tiempo en llegar a venderse en España (ya lo anunciaremos). Gastón comenta que cuenta cuestiones novedosas, como las ondas gravitacionales de LIGO, la imagen de EHT, la solución el problema de la información cuántica, y mucho más. Según José Edelstein «el mejor libro sobre agujeros negros de este siglo».

@JuanAntonioAguilar comenta: «Héctor ha sacado el tema del libro rapidito, para que no le pase como a la Milá con Paco Umbral». Y remata @AlyCia_hanHurtadoelEspín: «¡​​He venido a hablar de mi libro!»

Nos cuenta Héctor un artículo de OpenAI sobre ¿por qué alucinan los LLM? Empieza abogando a favor de las alucinaciones, fallos que son seña de identidad de la inteligencia, a diferencia de la memoria enciclopédica, que nunca falla. Para él la creatividad de los LLM está asociada a las alucinaciones y pone el ejemplo de las proteínas patentadas por David Baker (Premio Nobel de Química en 2024), algunas de las cuales están inspiradas en aluciones de las IA generativas. Luego Héctor explica el funcionamiento básico de los LLM, con una primera fase de pre-entrenamiento y una segunda fase de post-entrenamiento, que se suele usar aprendizaje con refuerzo a partir de realimentación humana (RLHF, por reinforcement learning from human feedback), aunque hay otras alternativas sin humanos (RLAIF, reinforcement learning from AI feedback, entre otras). La idea es que el post-entrenamiento ancle el modelo interno del mundo obtenido en el pre-entrenamiento con un modelo humano del mundo.

Luisa comenta la definición de token: una unidad mínima de texto para su procesado por el LLM. Héctor retorna al artículo. Los LLMs afirman con seguridad cosas que no son ciertas (aunque son plausibles). El nuevo artículo de OpenAI sostiene que los modelos de lenguaje se inventan información porque los procedimientos estándar de entrenamiento y evaluación premian más la elaboración de una conjetura que el reconocimiento de que algo se desconoce. Se está trabajando para reducir este fenómeno, llamado «alucinaciones». Por ejemplo, cuando le preguntamos a un chatbot por el título de la tesis doctoral de Adam Tauman Kalai (uno de los autores del artículo), ofrece con total seguridad tres respuestas diferentes, ninguna de ellas correcta; cuando se le pregunta por su fecha de nacimiento, ofrece tres fechas diferentes, todas ellas incorrectas.

Según el artículo el problema no es resoluble, forma parte intrínseca de cómo funcionan los LLM (el artículo presenta un modelo matemático que apoya esta afirmación). La segunda parte del artículo se centra en desvelar un mecanismo que da origen a las alucinaciones, los métodos de evaluación que establecen incentivos erróneos que fomentan las conjeturas en lugar de la sinceridad sobre el desconocimiento de un tema. Se puede imaginar como un test con varias respuestas posibles. Si no sabes la respuesta, en lugar de dejarlo en blanco que te asegura cero puntos, eliges una al azar, siendo posible que tengas suerte y aciertes. En los tests la solución estándar es puntuar de forma negativa las respuestas incorrectas (premiando no contestar cuando se ignora). Por ello se propone implementar una penalización de los errores cometidos con convicción que sea mayor que la del desconocimiento. Esta idea no es nueva, pero el enfoque de OpenAI es distinto.

Las evaluaciones basadas en la precisión deben actualizarse para que su puntuación desaliente las conjeturas. Pero en el preentrenamiento (la P de GPT) no se etiqueta como «verdadero/falso» cada afirmación. Incluso con etiquetas, algunos errores son inevitables. Imagina millones de fotos de gatos y perros etiquetaras con la fecha de nacimiento de la mascota; dado que estas fechas son siempre aleatorias, esta tarea siempre producirá errores. Los hechos arbitrarios de baja frecuencia, como el cumpleaños de una mascota, no pueden predecirse solo a partir de patrones. La precisión nunca alcanzará el 100 % porque algunas preguntas del mundo real son imposibles de responder; luego es inevitable que los modelos se inventen información. El artículo es Adam Tauman Kalai, Ofir Nachum, …, Edwin Zhang, «Why Language Models Hallucinate,» arXiv:2509.04664 [cs.CL] (04 Sep 2025), doi: https://doi.org/10.48550/arXiv.2509.04664 (este artículo ya ha sido citado 228 veces); recomiendo «Por qué los modelos de lenguaje se inventan cosas», OpenAI, 05 sep 2025.

@ThomasEmilioVilla bromea: «D​e hecho, cuando se le envía un prompt con una idea pésima a una IA suele contestarnos no me tokens las palmas que me conozco«.

Juan Carlos nos habla de engranajes que no se tocan (porque son hidrodinámicos). Se experimenta con un sistema de dos rotores cilíndricos: uno activo, forzado con velocidad angular Ω, y otro pasivo, que gira con velocidad ω por acoplamiento gracias al fluido. Se usa una mezcla agua y glicerol con viscosidad cinemática ν = 1.5–2 cm²/s, rotores de radio r = 1.9 cm y altura h = 14.6 cm, con razón de aspecto h/r = 8. El problema se describe con tres parámetros adimensionales, Re = Ω r²/ν, G ∈ [0,1], C = R/r ∈ (2,10), con una “relación de transmisión” Γ=ω/Ω cuyo signo distingue corrotación (+) y contrarrotación (−). En los experimentos se observa la aparición de una corrotación inesperada donde a nivel intuitivo se esperaría un comportamiento de tipo “engranaje de transmisión”.

Juan Carlos recomienda este vídeo «Around The Corner – How Differential Steering Works (1937),» YouTube, 16 Sep 2009. «How the automobile differential allows a vehicle to turn a corner while keeping the wheels from skidding.»

Para valores fijos de G y C, se aumenta Ω en escalones y se espera a que el rotor pasivo alcance un estado estacionario; a partir de la serie temporal se calcula Γ. En el espacio de fases (G,Re) con C=4.5 se observa que la corrotación ocupa una región amplia del espacio de parámetros (azul en la figura de arriba a la izquierda). También se observan regiones en forma de “lengua” de contrarrotación a Re altos. Se concluye que la corrotación no es una anomalía única, sino el resultado de tres rutas distintas: una transición geométrica a separaciones muy pequeñas, donde se contrae la zona de cizalla interna; una transición topológica a separaciones mayores, donde se reorganiza a nivel global el flujo entre rotores; y una transición inercial a Reynolds altos, asociada al refuerzo del flujo exterior, por acción centrífuga.

La analogía mecánica “engranaje interior frente a correa exterior” resume bien la competencia entre cizallas que determina el signo de Γ. Futuros estudios serán necesarios: con más de dos rotores, cambiando la geometría de los rotores y su confinamiento, permitiendo la traslación libre además de la rotación, etc. Además, serán necesarias simulaciones y modelos de interacción fluido-estructura que usen este sistema como banco de pruebas. El artículo es Jesse Etan Smith, Leif Ristroph, Jun Zhang, «Hydrodynamic Spin-Coupling of Rotors,» Physical Review Letters 136: 024001 (13 Jan 2026), doi: https://doi.org/10.1103/m6ft-ll2c.

Héctor nos cuenta que con el JWST se ha obtenido el mejor mapa de materia oscura hasta la fecha. Se cartografía usando lentes gravitacionales débiles gracias a las distorsiones coherentes (shear) en la forma de las galaxias de fondo. El nuevo mapa de masa de ultrarresolución se ha obtenido en el campo COSMOS usando JWST/COSMOS-Web. En concreto, se usan imágenes profundas de JWST/NIRCam en F115W y F150W para medir formas de galaxias y construir un catálogo final con una densidad efectiva de 129 galaxias por arcmin² (combinando medidas en ambas bandas cuando existen) y un redshift mediano de ≈ 1.15 z. Se ha incrustado el campo JWST (0.77°×0.70°) en un mapa más amplio de HST para reducir los efectos de borde. Se ha usado un algoritmo tipo Kaiser–Squires (KS+) con in-painting y técnicas multiescala alcanzando una resolución angular de 1.00±0.01 arcmin, más de dos veces más fina que mapas previos en COSMOS con HST.

Héctor comenta que la deformación de las galaxias, llamada shear (cizalla), se puede descomponer en modos E (de rotacional nulo) y modos B (de divergencia nula). El efecto de lente gravitacional conduce a modos E, siendo los modos B nulos. El nuevo mapa muestra que los modos B son al menos un orden de magnitud menores que los modos E, lo que confirma que se está obteniendo un buen mapa de la distribución de materia oscura gracias a su efecto de lente gravitacional.

El nuevo mapa de JWST revela la distribución proyectada de masa con gran detalle que muestra las 15 concentraciones conocidas por emisión de rayos X (XMM/Chandra) con una relación señal/ruido (S/N)) >3 y una red de estructuras extendidas de baja amplitud que se interpretan como filamentos que conectan las sobredensidades de tipo cúmulo. Se observan alineamientos claros (masa–gas caliente–galaxias) junto a picos de lensado débil sin contrapartida evidente, compatibles con sistemas subluminosos, dominados por materia oscura. Futuras reconstrucciones tomográficas futuras permitirán obtener una representación tridimensional. El artículo es Diana Scognamiglio, Gavin Leroy, …, John R. Weaver, «An ultra-high-resolution map of (dark) matter,» Nature Astronomy (26 Jan 2026), doi: https://doi.org/10.1038/s41550-025-02763-9, arXiv:2601.17239 [astro-ph.CO] (24 Jan 2026).

Me toca comentar un vídeo en YouTube de la empresa Cortical Labs que pone su sistema con neuronas biológicas DishBrain (CL1) a jugar al Doom (videojuego). Esta empresa ofrece un servicio en la nube (Cortical – Cloud https://corticallabs.com/cloud) para que cualquier persona pueda desarrollar código para sus dispositivos neuronales CL1. Sean Cole (https://github.com/SeanCole02/doom-neuron) ha desarrollado un software para jugar al DOOM, que codifica (encoder) el estado del juego en un patrón de estimulación eléctrica para el CL1 y decodifica (decoder) las respuestas para ejecutar comandos en el juego (disparar y rotar). El problema es que los CL1 están muy limitados, por lo que no se puede atribuir el aprendizaje a CL1. Hay serias dudas que apuntan a que es el decodificador el que realmente aprende y ejecuta las acciones sin usar la salida «aleatoria» de la CL1. Por supuesto, el software usa la información de salida de la CL1, pero falta la demostración de que “el aprendizaje” esté localizado en la CL1, en lugar de distribuido entre el CL1, el codificador y del decodifiador. Ello no quita que la empresa haya hecho este vídeo afirmando que CL1 ya es capaz de jugar a Doom (aunque como un principiante «ciego»).

El vídeo me sirve de excusa para hablar de un artículo publicado en la revista Neuron (grupo Cell) en 2022. Presenta la primera versión de CL1, llamada DishBrain, que aprende a jugar a una versión muy simplificada del juego Pong (ping pong con una sola raqueta enorme). La hipótesis que subyace es la idea del principio de energía libre como motor de una inferencia activa: si el sistema recibe información sensorial y realimentación sobre su acción, puede reorganizar su actividad para reducir entradas impredecibles (ruido).

CL1 está construido sobre una matriz de electrodos (HD-MEA MaxOne) con 26 000 electrodos de platino distribuidos sobre 8 mm² (aunque 1024 canales son operables de forma separada, hasta 32 para estimulación, de los que solo 8 se usaron para el Pong). Encima de esta matriz de electrodos se hace crecer un cultivo de células madre pluripotentes inducidas (iPSCs); se repartieron en 24 pocillos en los que se pipetearon unas 25 000 iPSCs/cm², totalizando más de 10⁶ iPSCs. Se diferenciaron a neuronas usando lentivirus NGN2, obteniendo unas 10⁵ neuronas en total. El cuarto día de cultivo (DD4) se añadieron unos 2.5 × 10⁴ astrocitos humanos primarios (ScienceCell) por pocillo. Dicho cultivo en la placa con 24 pocillos es sembrado encima del chip HD-MEA, con unas 10⁶ células.

Para el juego Pong se logró demostrar el aprendizaje con refuerzo en tan solo 5 minutos de juego. La entrada se realiza en la llamada área sensorial, en la que se encuentran los 8 electrodos que usan para codificar la posición de la bola (Layout en la figura); la posición del electrodo codifica la posición vertical y la frecuencia de la excitación del electrodo codifica la posición horizontal (que cambia linealmente entre 4 Hz para la pared opuesta y 40 Hz para la pared de la pala). La salida se realiza en la llamada región motora (en la figura marcada con flechas ↑↓    ↑↓), que se lee para determinar si la pala sube o baja. En el experimento principal se usaron 399 sesiones de aprendizaje: 80 controles de medio (CTL, n = 6 MEA), 42 sesiones de reposo (RST, n = 20 cultivos), 38 controles in silico (IS, n = 3 semillas), 101 sesiones con cultivos miPSC de ratón (MCC, n = 9 cultivos) y 138 con cultivos de hiPSC humanas (HCC, n = 11 cultivos). Solo en los experimentos MCC y HCC se logró un aprendizaje exitoso.

El estudio muestra que la información sensorial no es suficiente para el aprendizaje, hace falta una realimentación (feedback) en bucle cerrado. En el estudio se observó que durante el juego aumentó la conectividad funcional entre región sensorial y las regiones motoras. Los autores interpretan sus resultados como compatibles con un aprendizaje guiado por reducción de sorpresa. Como líneas futuras, señalan mejorar la resolución espacial y temporal, separar mejor soma/dendritas, introducir otros tipos celulares o estructuras 3D (organoides), añadir propiocepción y retardos explícitos, y estudiar memoria entre sesiones, que en este estudio no fue robusta. El artículo es Brett J. Kagan, Andy C. Kitchen, …, Karl J. Friston, «In vitro neurons learn and exhibit sentience when embodied in a simulated game-world,» Neuron 110: 3952-3969 (07 Dec 2022), doi: https://doi.org/10.1016/j.neuron.2022.09.001. A los interesados en leer más sobre inteligencia biológica sintética (SBI) que incluye la inteligencia organoide, recomiendo leer Moein Khajehnejad, Forough Habibollahi, …, Brett J. Kagan, «Biological Neurons Compete with Deep Reinforcement Learning in Sample Efficiency in a Simulated Gameworld,» arXiv:2405.16946 [q-bio.NC] (27 May 2024), doi: https://doi.org/10.48550/arXiv.2405.16946; y Brett J. Kagan, «Two roads diverged: Pathways toward harnessing intelligence in neural cell cultures,» Cell Biomaterials 1: 100156 (23 Sep 2025), doi: https://doi.org/10.1016/j.celbio.2025.10015.

Y pasamos a Señales de los oyentes. @brendaanabelganzi pregunta: ¿El modelo del radio de Schwarzschild sigue siendo válido hoy con lo que sabemos? ¿El chorro que eyectan los AGN afecta al horizonte de sucesos ?» Contesta Gastón que los chorros son emitidos por agujeros negros en rotación, descritos por el modelo de Kerr. El radio de su horizonte es más pequeño que el radio de Schwarzschild. Estas fórmulas de la Relatividad General se consideran aplicables a los agujeros negros astrofísicos. Por otro lado, los chorros tienen su origen en el mecanismo de Blandford–Znajek (aunque otros mecanismos propuestos); el efecto principal del chorro es reducir el momento angular del agujero negro, lo que implica un aumento del radio del horizonte. Pero este efecto es muy pequeño.

@ThomasEmilioVilla pregunta: «Este sistema de cilindros que se transfieren el momento rotacional sin engranaje, ¿qué podrían decirnos sobre el comportamiento de las estrellas en los halos de las galaxias en rotación? Contesta Juan Carlos que no cree que tengan ninguna relación. Así que no ofrecen ninguna información sobre las curvas de rotación galácticas debidas a la presencia de materia oscura en el halo galáctico.

@gabrielosorio595 pregunta: «¿Y si se entrenan las IAs para ser un tanto «inseguras», de manera que comprueben en parte lo que dicen?» Contesta Héctor que esto ya se está haciendo (y que se comenta en el paper de OpenAI). Se fuerza al modelo para que busque en la web toda la información que va a dar, pero esto es como matar moscas a cañonazos. Las IA así entrenadas serían muy incómodas de usar. Pero el artículo de OpenAI trata de ir a la esencia, al origen de las alucionaciones. Y lo que observan es que siempre hay que tolerar un cierto grado de errores. Siempre hay un error base del pre-entrenamiento que no se puede obviar, hay que tolerarlo.

@ThomasEmilioVilla pregunta: «¿Estas observaciones (del JWST) son agnósticas al respecto de los modelos «cusp» o «core» de la dark matter?» Contesta Héctor que hay dos modelos básicos sobre materia oscura en centro de las galaxias. El modelo de referencia es el Navarro-Frenk-White (NFW) que predice una forma de tipo pico «cusp» en el centro. Pero en galaxias enanas parece qeu la distribución es más roma (menos afilada) en el centro. La pregunta es sobre materia oscura dentro de una galaxia, que es una escala muy diferente a la escala de las observaciones del JWST. Las galaxias individuales son más pequeñas que un píxel en el mapa de la materia oscura del JWST (así que las observaciones no ofrecen información sobre esta pregunta).

@CristinaHerGar pregunta: «A las IA se les ocurre, al aprender, darse cuenta de que no saben de un tema al aprender más sobre el mismo, o sería un tipo de consciencia que no tienen». Héctor recuerda la curva del sesgo cognitivo del efecto Dunning–Kruger: algunas personas dotadas de capacidades limitadas en áreas concretas tienden, debido a esas limitaciones, a sobreestimar su capacidad y desempeño reales en tales áreas. Contesta Juan Carlos que las IA no aprenden, pues están pre-entrenadas. Cuando conversamos, el contexto se acumula y crece, y se usa como memoria, pero no hay ningún tipo de aprendizaje. En nuestra conversacíon con ella solo ve nuestro contexto compartido. Héctor lo ratifica solo aprenden en pre- y post-entrenamiento pero durante la conversación no se modifican los pesos sinápticos de las neuronas. Nos comenta como anécdota que él le ha puesto a ChatGPT que al final de cada respuesta indique el grado de certidumbre sobre sus afirmaciones. Juan Carlos pregunta si no se estará inventando dicho grado de certidumbre. Pero Héctor dice que a él le convence lo que le dice ChatGPT, parece que tiene sentido y prueba a hacer un experimento (sobre la fecha de nacimiento de su perro, pues no tiene perro).

@javierbenavides2669 pregunta: «Si tuviéramos un AN de 100 M☉, ¿existe algún procedimiento teórico que nos permitiría obtener dos de 25 M☉ a partir de la grande?» Gastón contesta que no, que no es posible la fisión de agujeros negros. Existe una solución de las ecuaciones de Einstein, porque sus soluciones son reversibles en el tiempo, pero la probabilidad de dichas soluciones es extremadamente baja. La probabilidad alta es para la fusión, pero para la fisión es muy improbable, se requiere mucho ajuste fino (fine tuning). La fisión requiere mostrar su singularidad desnuda y hay conjeturas de censura cosmológica que no lo permiten. En la Naturaleza dicho fenómeno no va a ocurrir.

Héctor pregunta a ChatGPT por el cumpleaños de su perro y le dice que está seguro al 100 % de que no lo sabe. Le pido que pregunte por el título de su tesis doctoral. Héctor se sorprende porque ChatGPT le da el título de su tesis doctoral, la fecha, sus directores y un resumen. La información contiene un enlace a una página web vacía sin dicha información (un enlace a una página en la wikipedia que no existe). Silvana propone que ChatGPT ha olvidado la web donde ha encontrado dicha información y ha alucinado la URL de una página web que no existe. Gastón tampoco tiene página web en la wikipedia. Propongo a los oyentes que creen las páginas web en la wikipedia de Héctor y la de Gastón.

@cebra5429 pregunta: «¿Cómo se distingue en las observaciones el redshift del mero DopplerContesto la diferencia entre el desplazamiento al rojo cosmológico y el asociado al efecto Doppler. No hay ninguna marca intrínseca en el propio desplazamiento al rojo que los distinga. La respuesta es que, en el propio desplazamiento al rojo, no hay ninguna marca intrínseca que permita distinguirlos de forma inmediata. Un corrimiento espectral, por sí solo, solo indica que la longitud de onda observada es mayor que la emitida; la interpretación física depende del contexto y del modelo cosmológico. Juan Carlos señala, con razón, que la situación cambia si aparece un blueshift (desplazamiento al azul), porque entonces solo puede ser resultado de un movimiento Doppler local. Gastón comenta el caso de un cuásar lejano, por ejemplo con z = 5, en cuyo espectro a veces se observan líneas duplicadas: una contribución procede del corrimiento cosmológico global, mientras que otra puede deberse a gas que emite o absorbe a gran velocidad, añadiendo un desplazamiento Doppler adicional. Gastón recuerda las primeras galaxias tempranas que observó el JWST: la estimación fotométrica de su redshift ofrecía valores de hasta z = 20; en esos casos, la estimación inicial era muy incierta y solo observaciones posteriores permitieron afinar la interpretación (resultó que eran galaxias con z ≈ 5 con mucho polvo). Juan Carlos propone una analogía muy ilustrativa: si ves una luz lejana, no sabes si corresponde a un coche o a una moto; solo cuando el objeto está mucho más cerca puedes distinguir sus características reales.

@NestorEduardo pregunta: «Si la física considera la inframción como algo tangigle, y asumiento que la consciencia sea información, ¿se podría algún día copiar o transferir como en El sexto día (2000)?» Héctor comenta que podemos medir la cantidad de información usando la entropía de Shannon. Contesto que la información no es algo tangible, como tampoco lo es la temperatura; son magnitudes estadísticas emergentes. La información tiene una interpretación termodinámica, por ejemplo, hay una cantidad de calor asociada al borrado de información (principio de Landauer). No me gusta la palabra tangible asociada a la información (y a cualquier otra cosa). Así que creo que no es tangible. Pero si alguien considera que la temperatura es tangible, debería aceptar que la información es tangible.

¡Que disfrutes del podcast!



13 Comentarios

  1. Francis existen problemas insuperable desde lo teórico o solo son problemas técnicos para subir un cerebro parte de el a un sustrato artificial en un futuro lejano? Con el conectoma no es suficiente, con el conectoma y la parte funcional electro quimica si?

    1. Eso ya ha pasado. Yo he visto un cerebro en una mesa. El conectoma es irrelevante. Lo subieron con las manos.
      Después lo rebozaron y lo echaron a una sartén. No sé qué hicieron con el resto del cordero. Venden el cadáver por partes.

    2. Mariana, no sabemos si es posible (incluso en teoría) transferir una consciencia humana a un sustrato artificial. Todo apunta a que con el conectoma no será suficiente. El encéfalo es un sistema biológico multiescala con un dinámica a escala molecular muy compleja.

      Te pongo un ejemplo sencillo: el nemátodo Caenorhabditis elegans tiene unas 300 neuronas y su conectoma completo se ha podido reconstruir en laboratorio, unas 7000 sinapsis químicas (neurotransmisores) y unas 2000 sinapsis eléctricas (iones). El proyecto OpenWorm ha simulado el sistema nervioso completo del nemátodo, incluyendo su conectoma químico y eléctrico, para controlar un «gusano virtual». Pero no se ha logrado que reproduzca de forma fiel el comportamiento observado del nemátodo. Todo apunta a que el conectoma no basta para entender el funcionamiento del sistema nervioso. Se sigue trabajando en este «asunto gusanil» (quizás algún día tengamos un «gusano zombie robótico»).

      1. Ese trabajo es los 80s , Ed boyden y otros grupos podrían la dinámica eléctrica real de cada neurona (actividad neuronal completa en tiempo real, el modelo biofísico real de cada neurona), la neuromodulación química (identidad química de todas las sinapsis), la plasticidad sináptica, estos grupos podrían Mapear mejor las sinapsis (estructura real del circuito) Saber qué neuronas están activas, controlar circuitos completos, mapear moléculas y proteínas etc

        1. Mariana, si te interesa la relación entre el conectoma y la función neuronal, te interesará Janne K. Lappalainen et al., Connectome-constrained networks predict neural activity across the fly visual system,» Nature 634: 1132–1140 (2024), https://www.nature.com/articles/s41586-024-07939-3. Estudian el conectoma visual en la mosca del vinagre (Drosophila), con 45 669 neuronas en 64 grupos diferentes y 1 513 231 conexiones entre neuronas.

          Usan inteligencia artificial y aprendizaje profundo para intentar entender la función neuronal. Usan el conectoma para construir una red de neuronas artificial (implementada con pytorch) que logra reproducir algunos resultados experimentales. Pecata minuta. Encuentran muchos problemas (por ejemplo, de identificabilidad de parámetros) que impiden que la simulación sirva para algo (ni permite entender el sistema visual de la mosca, ni permite reproducir su función cognitiva, ni aporta información relevante en neurociencia drosófila). Hoy en día el conectoma sigue teniendo las limitaciones que se observaron a finales de los 1980.

    3. Aún suponiendo un funcionalismo computacional, que el sustrato biológico sea irrelevante, que la simulación virtual perfecta de la estructura de una vaca tan salada diese leche merengada (suposición que yo no estoy dispuesto a asumir) seguiría siendo falso que eso sea «subir» o «transferir» un cerebro. Sería copiar. Eso nos lleva a los divertidos problemas sobre la identidad personal de la máquina de teletransporte. ¿Desintegrar al original es matarlo?. ¿Y si no lo mata, si el original se queda donde estaba, crea personas idénticas?. ¿Cuál de las copias se queda la novia, la hipoteca y el perro?. La versión simulada en un San Junípero virtual presenta problemas conceptuales similares.
      El contraargumento también es potente. ¿El episodio de consciencia que despierta al salir de cada fase de sueño profundo es la misma persona?. Si la persona es la continuidad narrativa y alguien idéntico a tí continúa el despropósito de tu identidad personal, morir disintregrado en la máquina de teletransporte no sería peor que dormir.
      Divertidos experimentos mentales para el funcionalismo computacional, aunque sea falso.

  2. Totalmente deacuerdo sobre lo último que dices sobre las alucinaciones de AI, Francis. Un modelo sin alucinaciones no puede ser verdaderamente general, los únicos modelos sin alucinaciones son aquellos lo suficientemente limitados.

    ¿Cómo sería un modelo que cumpla simultáneamente el «ser general» y «libre de alucinaciones»?

    Eso no sería una AI, ni una AGI…no tiene sentido alguno pensar que pueda existir. La frase «un modelo sin alucinaciones no puede ser verdaderamente general» es una frase que aunque simple, simple texto, es profunda en este contexto.

  3. Hola. Pues en mi opinión tenemos un problema,
    parecido a una matrioshka y no es divertida.
    Yo me lo tomaría con filosofía, después veremos.

    Un saludo y gracias,

  4. Tengo que admitir que la parte del programa que mas me ha intrigado ha sido cuando Hector ha mostrado paginas de su libro con el mecanismo de Antikytera. De que hablara su libro? A ver a ver mas paginas el proximo capitulo! 🙂

      1. Es curioso porque desde lo que vimos no me sale ningun argumento en comun. Yo pensaba que iba a ser algo sobre SETI que a Hector le encanta, pero Antekytera es mas algo de historia de la astronomia, o quizas algo que antes que se entendiese como objeto posiblemente de Arquimedes (o de poco posterior) estuvo en la categoria de objeto OOPART…que intrigulis ajaja! 🙂

Deja un comentario