Podcast CB SyR 545: Mujer y ciencia 11F, depredadores jurásicos, Sgr A* como materia oscura, genética en psiquiatría, AlphaGenome y vacunas origami de ADN

Por Francisco R. Villatoro, el 13 febrero, 2026. Categoría(s): Ciencia • Noticias • Podcast Coffee Break: Señal y Ruido • Recomendación ✎ 6

Te recomiendo disfrutar del episodio 545 del podcast Coffee Break: Señal y Ruido [iVoox AiVoox BApplePod AApplePod B], titulado “11F; Dinosaurios; Sag A*; Genes y Psiquiatría; AlphaGenome; ADN Origami”, 12 feb 2026. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. Cara A: 11F Día de la mujer y la niña en ciencia (07:00). Titular en La Vanguardia:“El logro de Barbacid es una mala noticia para la ciencia” (15:00). Depredadores jurásicos, devoradores de bebés (22:00). Sag A* como materia oscura en vez de agujero negro (44:00). Cara B: Sag A* como materia oscura en vez de agujero negro (00:00). 11F Día de la mujer y la niña en ciencia (36:00). Mapa genético de desórdenes psiquiátricos (1:05:00). AlphaGenome de DeepMind promete revolucionar la medicina (1:21:00). Vacunas origami de ADN (1:48:00). Imagen de portada de Héctor Socas Navarro. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».

¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). ¡Ya sois 384! También puedes apoyarnos vía iVoox (https://www.ivoox.com/support/172891). Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!

Descargar el episodio 545 cara A en iVoox.

Descargar el episodio 545 cara B en iVoox.

Como muestra el vídeo participan por videoconferencia Héctor Socas Navarro @HSocasNavarro /@hectorsocas.bsky.social / @HSocasNavarro@bird (@pCoffeeBreak / @pCoffeeBreak.bsky), Ignacio Crespo @SdeStendhal, José Edelstein @JoseEdelstein, Juan Carlos Gil Montoro @ApuntesCiencia / @ApuntesCiencia.bsky / @ApuntesCiencia@astrodon, Silvana Tapia, Luisa Achaerandio @LuiAcha@LuiAcha.bsky, Isabel Cordero @FuturaConjetura / @FuturaConjetura.bsky, Gastón Giribet @GastonGiribet (solo cara B), y Francis Villatoro @eMuleNews / @eMuleNews.bsky / @eMuleNews@mathstodon. Por cierto, agradezco a Manu Pombrol @ManuPombrol el diseño de mi fondo para Zoom; muchas gracias, Manu.

Tras la presentación de Héctor, José comenta que ha presentado en Vigo su nuevo libro Andrés Gomberoff, José Edelstein, «La tiranía del azar: Una historia de la mecánica cuántica,» Debate (2025). Además, nos comenta el caso de la física y filósofa alemana Grete Hermann, discípula de Emmy Noether. Hermann descubrió un error en la demostración de John von Neumann en su libro de 1932 sobre la imposibilidad de la existencia de teorías de variables ocultas en mecánica cuántica. Como no publicó su resultado, fue ignorado durante 30 años hasta su redescubrimiento por John Bell.

Héctor se hace eco de la polémica sobre Barbacid y la cura del cáncer: Vega Oncotargets, spin-off de su proycto, afirmaba en portada que se había logrado la «Primera terapia efectiva contra el cáncer de páncreas», pero tuvo que retractarse en 24 horas. La polémica ha generado titulares como Susana Quadrado, «El logro de Barbacid es una mala noticia para la ciencia», La Vanguardia, 07 feb 2026, y Manuel Ansede, «La verdadera historia detrás de “la primera terapia efectiva contra el cáncer de páncreas” de Mariano Barbacid,» El País, 06 feb 2026. El principal apoyo económico del grupo de Barbacid procede de CRIS contra el cáncer, una fundación privada sin ánimo de lucro. En medios de masas Barbacid y la presidenta de CRIS, Lola Manterola, «han activado una campaña de donaciones que ha recaudado 2.3 millones de euros. Se necesitan seis millones de entrada y unos 30 en total para completar los desarrollos preclínicos y empezar a probar la terapia en pacientes».

Nos habla Ignacio de un preprint en ResearchGate sobre depredadores jurásicos, que afirma que fueron devoradores de bebés. Se presenta la primera reconstrucción cuantitativa de una red trófica para un ecosistema del Jurásico Superior, usando como caso de estudio la cantera Dry Mesa Dinosaur Quarry (DMDQ), dentro de la Formación Morrison (depositada hace ~7–9 Ma y extendida sobre ~1.2×10⁶ km² del oeste de EEUU). Se destaca el papel estructural de los saurópodos usando metodologías estandarizadas de ecología moderna. Las conexiones tróficas se infieren a partir de múltiples proxies (microestrías de desgaste dental, isótopos, biomecánica, partición espacial, filogenia y límites de tamaño presa-depredador). La red se implementa en un paquete de R para el análisis y la visualización de comunidades ecológicas llamado cheddar, que permite obtener métricas estandarizadas (número de nodos, enlaces, niveles tróficos, longitudes de cadenas) y comparar modelos alternativos (con y sin Barosaurus).

El modelo con Barosaurus incluye 97 nodos y 706 enlaces tróficos, mientras que el modelo sin Barosaurus contiene 89 nodos y 642 enlaces. Ambos son redes muy complejas, con 12 961 y 12 605 cadenas tróficas únicas, resp., y una longitud máxima de cadena de 13 enlaces. La estructura está dominada por nodos intermedios (~86.5 %), con productores basales ~4.0–4.4 % y nodos superiores ~9 %. El 75 % de los niveles tróficos contiene menos de tres eslabones, con mediana ≈2, lo que indica un sistema  eficiente en energía basado en relaciones productor–herbívoro–carnívoro. Los saurópodos ocupan sistemáticamente los nodos superiores inmunes a depredación en sus clases de mayor tamaño y presentan mayores grados de interacción que los ornitisquios, apoyando un modelo de control bottom-up donde la diversidad y biomasa saurópoda actúan como fuerza estructurante del ecosistema.

A nivel conceptual, se interpretan como “ingenieros ecosistémicos” análogos funcionales a elefantes africanos, pero con un impacto potencialmente mayor debido a su biomasa y dinámica ontogenética. Como líneas futuras, los autores destacan la necesidad de refinar la resolución trófica mediante análisis isotópicos y de microwear más detallados, estudios de flora específica y paleobiología de invertebrados, así como la incorporación de procesos no modelados (p. ej., carroñeo) y la aplicación del marco metodológico a otras canteras de la Formación Morrison y a otros ecosistemas mesozoicos bien muestreados. El artículo es C. Morrison, W. J. Hart, …, S. J. R. Allain, «Here, Size Is No Accident: A Novel Food Web Analysis of the Dry Mesa Dinosaur Quarry and Ecological Impact of Morrison Formation Sauropod Fauna,» New Mexico Museum of Natural History and Science Bulletin 102: 387-426 (2026) [ResearchGate; PDF].

Nos cuenta José un curioso artículo en MNRAS sobre Sgr A* como objeto de materia oscura fermiónica en vez de agujero negro. Uno de los autores es el físico italiano Remo Ruffini. Gastón menciona su famoso artículo Remo Ruffini, John A. Wheeler, «Introducing the black hole,» Physics Today (01 Jan 1971), doi: https://doi.org/10.1063/1.3022513 (ResearchGate; PDF). Al grano, el artículo propone una hipótesis exótica para explicar este agujero negro supermasivo como un sistema autogravitante de fermiones de materia oscura descrita por el modelo extendido de Ruffini–Argüelles–Rueda (RAR), que produce perfiles núcleo–halo en equilibrio termodinámico relativista. Se estudian dos posibles masas para la partícula de materia oscura, 56 keV² (núcleo menos compacto) y 300 keV² (núcleo muy compacto), que permiten ajustar las órbitas de estrellas S y la curva de rotación galáctica de la Vía Láctea en escalas kilopársec. Para S2 (periodo P≃16 años, e≃0.88), los tres modelos (agujero negro​ y núcleos fermiónicos de 56 y 300 keV²) reproducen las trayectorias con diferencias relativas <1 % en los parámetros orbitales inferidos. Para el agujero negro se estima una masa de 4.16 millones de masas solares, siendo para los modelos fermiónicos de (3.52–3.54) millones de masas solares (aunque la masa encerrada en el periastro es de 4.05–4.16 millones de masas solares). El factor de Bayes favorece el caso de 56 keV² frente a 300 keV², aunque esta preferencia depende del conjunto de datos empleado.

Lo más intersante es que el estudio muestra que variaciones de hasta un 30 % en las condiciones de contorno del halo (compatibles con la curva de rotación GAIA DR3) modifican los parámetros orbitales ajustados de S2 en menos de 0.1 %, lo que indica estabilidad del escenario fermiónico frente a cambios en el halo externo. Por supuesto, la discriminación definitiva entre agujero negro y núcleo fermiónico requiere datos astrométricos de mayor precisión (más pasadas por apocentro y de estrellas con órbitas interiores a S2) junto a imágenes de alta resolución del entorno inmediato (tipo EHT). En particular, los modelos con masa ∼(200–378) keV² producirían núcleos compactos que pueden generar sombras de ∼50 μas, comparables a las observadas por EHT, lo que abre una vía observacional directa para contrastar la hipótesis fermiónica frente al paradigma estándar del agujero negro. El artículo es Valentina Crespi , Carlos R. Argüelles, …, Remo Ruffini, «The dynamics of S-stars and G-sources orbiting a supermassive compact object made of fermionic dark matter,» Monthly Notices of the Royal Astronomical Society (MNRAS) 546: staf1854 (05 Feb 2026), doi: https://doi.org/10.1093/mnras/staf1854, arXiv:2510.19087 [astro-ph.GA] (21 Oct 2025). Los autores llevan años trabajando en este tipo de modelos, R. Ruffini, C.R. Argüelles, J.A. Rueda, «On the core-halo distribution of dark matter in galaxies,» MNRAS 451: 622-628 (21 Jul 2015), doi: https://doi.org/10.1093/mnras/stv1016; C.R. Argüelles, …, J.A. Rueda, R. Ruffini, «Novel constraints on fermionic dark matter from galactic observables I: The Milky Way,» Physics of the Dark Universe 21: 82-89 (Sep 2018), doi: https://doi.org/10.1016/j.dark.2018.07.002.

Héctor recuerda que ayer 11 de febrero fue el Día Internacional de la Mujer y la Niña en la Ciencia. Isabel y Silvana han estado impartiendo charlas, y Luisa como profesora ha hablado sobre el tema a sus estudiantes en clase. Se evalúa la importancia de este día y se comentan varios casos de mujeres científicos cuyas figuras merecen una reivindicación. No pretendo resumir la tertulia (recomiendo escucharla en el podcast). Entre los comentarios, Héctor destaca a la primera mujer autora de un texto cuyo nombre conoemos, Enheduanna (siglo XXIII a. C.), hija de Sargón de Acad y suma sacerdotisa del dios lunar Nanna en Ur.

Yo destaco el caso de Skłodowska-Curie, doble premio Nobel en Física y Química, que nunca llegó a ser académica en la Academia de Ciencias Francesa. La primera académica correspondiente fue Marguerite Perey, la descubridora del francio, en el año 1962 (a veces se dice que Curie no lo logró porque nombró polonio al elemento que descubrió). Pero ella no llegó a académica de número; la primera académica de número fue Yvonne Choquet-Bruhat, que demostró la existencia y unicidad de las ecuaciones de Einstein, en 1979. En el año 2025 una mujer llegó a presidenta, Françoise Combes, y se estima que solo hay ≈ 18 % de mujeres académicas.

Luisa nos cuenta un artículo en Nature que presenta un mapa genético de 14 desórdenes psiquiátricos. Se realiza el mayor análisis genómico transversal sobre trastornos psiquiátricos, integrando datos GWAS de 14 trastornos (1 056 201 casos) para cartografiar la arquitectura genética compartida y específica entre diagnósticos diferenciados en individuos de ascendencia europea. Se complementó con correlaciones genéticas globales mediante LDSC, estimaciones de solapamiento poligénico con MiXeR, modelos estructurales multivariantes (genomic SEM), correlaciones locales (LAVA), GWAS multivariante por factores latentes y estudios caso-caso (CC-GWAS). El modelado estructural identificó cinco factores genómicos latentes (Compulsivo, Esquizofrenia–Bipolar [SB], Neurodesarrollo (TDAH), Internalizante y Trastornos por Uso de Sustancias [SUD]) que explican en promedio ~66 % de la varianza genética de cada trastorno (CFI=0,971; SRMR=0,063), así como un modelo jerárquico con un factor p general de psicopatología (este especie de factor es un número que cuantifica la vulnerabilidad a trastornos psiquiátricos).

Se observa un solapamiento genético generalizado entre trastornos, superior al estimado por correlaciones previas; luego gran parte del riesgo está mediado por variantes compartidas con efectos concordantes. Se identificaron 458 correlaciones locales significativas en 1093 regiones LD-independientes, con un hotspot destacado en el cromosoma 11 (región NCAM1–TTC12–ANKK1–DRD2) implicado en 8 trastornos. Luisa nos aclara que la pleiotropía es el fenómeno por el cual una misma variante genética (o un gen) influye en múltiples rasgos fenotípicos distintos. En este estudio el GWAS multivariante detectó 238 loci pleiotrópicos únicos asociados a los cinco factores y 160 loci para el factor p; además, el CC-GWAS identificó 412 loci diferenciadores entre pares diagnósticos, la mayoría entre trastornos que cargan en factores distintos. Los loci pleiotrópicos se enriquecen en procesos amplios de regulación génica y neurodesarrollo temprano; el factor SB muestra fuerte enriquecimiento en neuronas excitadoras (incluidas CA1/CA3 hipocampales), mientras que el factor Internalizante se asocia además con oligodendrocitos y células gliales.

En resumen, el estudio respalda una nosología (clasificación sistemática de las enfermedades) basada en dominios biológicos compartidos más que en categorías clínicas discretas y sugiere que intervenciones farmacológicas transdiagnósticas podrían dirigirse a mecanismos moleculares comunes. Entre las limitaciones destacan la infrarrepresentación de pacientes con ancestros no europeos y posibles sesgos por heterogeneidad diagnóstica; por ello, futuras investigaciones deberán ampliar la diversidad poblacional, integrar variantes raras y datos longitudinales, y explorar cómo estos factores genómicos se traducen en trayectorias clínicas y respuesta terapéutica. El artículo es Andrew D. Grotzinger, Josefin Werme, …, Jordan W. Smoller, «Mapping the genetic landscape across 14 psychiatric disorders,» Nature 649: 406-415 (10 Dec 2025), doi: https://doi.org/10.1038/s41586-025-09820-3; más información divulgativa en Abdel Abdellaoui, «Shared genetic risk in psychiatric disorders,» Nature 649: 295-296 (10 Dec 2025), doi: https://doi.org/10.1038/d41586-025-03728-8; Max Kozlov, «Huge genetic study reveals hidden links between psychiatric conditions,» News, Nature (10 Dec 2025), doi: https://doi.org/10.1038/d41586-025-04037-w; Wei Li, «Genetic overlap across 14 psychiatric disorders,» Nature Genetics 58: 13 (13 Jan 2026), doi: https://doi.org/10.1038/s41588-025-02494-7.

Me toca comentar la publicación en Nature de AlphaGenome de DeepMind, que promete revolucionar la medicina. Uno de los principales retos de la genómica moderna es la interpretación funcional de las variantes no codificantes, pues más del 98 % de la variación genética humana se localiza fuera de las regiones codificantes de proteínas. Estas variantes afectan a la accesibilidad cromatínica, modificaciones epigenéticas, conformación 3D, transcripción y empalme de exones (splicing). Los modelos secuencia-a-función basados en aprendizaje profundo (deep learning) han permitido predecir genome tracks a partir de la secuencia de ADN, pero tienen dos limitaciones estructurales: (i) el compromiso entre longitud de contexto y resolución (modelos de 200–500 kb con salidas en bins de 32–128 bp frente a modelos de ≤10 kb con resolución de 1 bp), y (ii) la especialización por modalidad (p. ej., splicing o accesibilidad) frente a modelos multimodales más generales pero menos precisos. AlphaGenome pretende superarlas usando un contexto largo (1 Mb), pero con resolución a nivel de base individual, y una predicción multimodal en un único marco.

Por ahora, AlphaGenome se centra en la arquitectura reguladora del genoma humano y murino. Ha logrado predecir 5930 tracks humanos y 1128 murinos en 11 modalidades, incluyendo RNA-seq, CAGE, PRO-cap, sitios y uso de empalme, uniones de empalme, DNase-seq, ATAC-seq, ChIP-seq de histonas y factores de transcripción, y mapas de contacto (Hi-C/Micro-C). El modelo, además, es capaz de predecir el efecto molecular de variantes (eQTL, sQTL, caQTL, paQTL, variantes ClinVar, etc.), evaluando tanto magnitud como dirección del efecto. Para ello usa una arquitectura tipo U-Net con bloques tipo Transformer, procesando 1 Mb de secuencia mediante paralelización distribuida (TPUs) y generando embeddings unidimensionales (1 bp y 128 bp) y bidimensionales (2048 bp para mapas de contacto). Se entrena en dos fases: (1) preentrenamiento con validación cruzada en el genoma de referencia, y (2) destilación, donde un modelo “estudiante” aprende de un ensamblado de modelos “profesores”, permitiendo inferencia eficiente (<1 s por variante en GPU H100). La evaluación incluye 24 tareas de predicción de tracks y 26 benchmarks de efecto de variantes, comparando contra otros modelos específicos de cada modalidad (Borzoi, Enformer, SpliceAI, Pangolin, ChromBPNet, Orca, etc.).

AlphaGenome supera o iguala al mejor modelo previo en 22 de las 24 tareas de predicción de tracks y en 25 de los 26 benchmarks de efecto de variantes. Destacan mejoras relativas del +14.7 % en predicción de cambios de expresión génica específicos de tejido frente a Borzoi, +25.5 % en predicción de dirección de eQTL, y aumentos en correlación para mapas de contacto (+6.3 % Pearson r frente a Orca). En eQTLs de GTEx, la correlación Spearman con efectos SuSiE β aumenta de 0.39 a 0.49, y el auROC para predicción de signo pasa de 0.75 a 0.80. En splicing, AlphaGenome alcanza el mejor rendimiento en 6 de 7 benchmarks, incluyendo clasificación de sQTL finamente mapeados y variantes patogénicas de ClinVar (auPRC hasta 0.66 en variantes intrónicas profundas). También mejora la predicción de caQTL y dsQTL, con correlaciones firmadas de hasta r≈0.74 en accesibilidad DNase.

En conclusión, AlphaGenome demuestra que se puede usar un contexto con 1 megabase, con resolución a nivel de nucleótido y multimodalidad en un único modelo sin sacrificar rendimiento, estableciendo un nuevo estándar en predicción de efectos regulatorios. La ablación muestra que la resolución de 1 bp, el entrenamiento multimodal y la destilación contribuyen de forma crítica al rendimiento. El modelo permite interpretar mecanismos moleculares complejos, como mutaciones no codificantes oncogénicas (p. ej., activación de TAL1), mediante análisis multimodal coherente. Futuras líneas incluyen ampliar a ancestrías diversas, incorporar variantes estructurales de gran tamaño, integrar datos epigenómicos adicionales y extender el marco a aplicaciones clínicas sistemáticas en medicina genómica de precisión.

AlphaGenome representa un gran avance en genómica computacional, aún en fase temprana.  AlphaGenome tiene el potencial de cambiar cómo los investigadores generan hipótesis, priorizan experimentos y diseñan estudios más específicos e informativos. Su impacto a largo plazo promete ser sustancial, aunque no se sabe si alcanzará el impacto de AlphaFold. Una futura versíon de AlphaGenome podría transformar la forma en que se interpretan los genomas, se comprenden los mecanismos de enfermedad y se traduce la variación genética en conocimiento biológico y clínico. Aún así, su aplicación clínica todavía es lejana. Además, desde el punto de vista científico, el modelo no ha descubierto nuevos hallazgos sobre genes o biología. Hay que recordar que los modelos de IA son tan buenos como los datos con los que se entrenan. La mayoría de los datos biológicos actuales son conjuntos pequeños y poco estandarizados. El principal reto ahora es generar los datos necesarios para entrenar la próxima generación de modelos aún más potentes. El artículo es Žiga Avsec, …, Demis Hassabis, Pushmeet Kohli, «Advancing regulatory variant effect prediction with AlphaGenome,» Nature 649: 1206-1218 (28 Jan 2026), doi: https://doi.org/10.1038/s41586-025-10014-0, bioRxiv 2025.06.25.661532 (27 Jun 2025).

Silvana nos cuenta un artículo en Science sobre las llamadas vacunas origami de ADN. La técnica del origami de ADN, que se popularizó en 2006 por Paul Rothemund, aunque el campo fue fundado por Nadrian Seeman, permite plegar ADN para construir nanoestructuras con formas muy precisas. En este trabajo se utilizan esas estructuras para fabricar nanopartículas tipo virus (VLPs) hechas de ADN, que actúan como andamiaje “inmunológicamente inerte”. Se comparan con una nanopartícula proteica ya conocida (p60mer, basada en lumazina sintasa). El estudio combina técnicas estructurales y múltiples ensayos inmunológicos en ratón.

El objetivo es diseñar una VLP que induzca la producción del anticuerpo VRC01, capaz de neutralizar alrededor del 90 % de las cepas de VIH-1 en ensayos de laboratorio. Para ello se emplea el antígeno sintético eOD-GT8, optimizado para activar precursores germinales del linaje VRC01. Silvana destaca que el diseño pasó por varias versiones. Una primera (d40-30mer), con 30 copias del antígeno distribuidas en una VLP de ~40 nm, funcionaba bien in vitro pero no se retenía lo suficiente en las células dendríticas foliculares (FDCs) in vivo. Se rediseñó entonces una versión más pequeña y más densa (d30-60mer, ~30 nm y 60 copias del antígeno), que mejoró la captura en FDCs y multiplicó por ~15 la activación de linfocitos B específicos.

Además, se añadió un epítopo T sintético llamado PADRE (Pan-DR Epitope), diseñado para activar eficazmente linfocitos T colaboradores en la mayoría de personas. Con esta combinación (d30-60mer-PADRE) se forman centros germinales muy focalizados en el antígeno, es decir, reacciones inmunes dirigidas de forma específica contra el objetivo deseado. En ratones humanizados VH1-2, alrededor del 60 % de las células en centros germinales eran específicas del sitio CD4 de unión del VIH (frente a ~20 % con la nanopartícula proteica). La frecuencia de precursores del linaje VRC01 tras una sola dosis fue comparable a la obtenida con plataformas proteicas estándar.

En conjunto, el trabajo muestra que las VLPs de ADN permiten controlar con gran precisión la geometría y la densidad del antígeno, minimizando respuestas contra el andamiaje y favoreciendo una respuesta muy dirigida. Como plataforma, ofrecen una gran flexibilidad de diseño y podrían aplicarse a vacunas frente a patógenos con epítopos difíciles o subdominantes (VIH, gripe universal, coronavirus). Aun así, faltan estudios clínicos para evaluar su seguridad y eficacia en humanos. El artículo es Anna Romanov, Grant A. Knappe, …, Darrell J. Irvine, «DNA origami vaccines program antigen-focused germinal centers,» Science 391: eadx6291 (05 Feb 2026), doi: https://doi.org/10.1126/science.adx6291.

Héctor intervino desde India, que con el cambio horario llegó a grabar en viernes. Por ello, no se finalizó con Señales de los Oyentes. ¡Que disfrutes del podcast!



6 Comentarios

  1. No ha sido «ciencia» en el sentido estricto del termino pero tengo que admitir que coincido totalmente con lo que dijo Isabel. Muy bien remarcado! 🙂
    Sobre el modelo especulativo de mimicker de agujero negro del centro de la galaxia…me falto el clasico escepticismo de Gaston y la falta de unicornios. Ya se que es un paper de unos amigos, pero aun asi creo que por lo menos un par de unicornios se lo mereceria! En particular la pregunta que siempre me hago en estos casos es: en que esta explicacion seria mejor de la que ya tenemos? Por ejemplo, podria explicar de alguna manera el exceso de rayos gama que medimos en el nucleo de la galaxia (el famoso Galactic Center GeV excess o GCE)?

  2. Hola, será interesante leer el libro de Edelstein.

    Francis, si hablamos de mecánica cuántica no puedo
    pensar en el azar y sin saber, cuándo lo
    pensé detenidamente esa pieza de lego no encaja.
    Si quien de verdad sabe no juega al azar, ni siquiera
    un poquito por la cuenta que les trae.
    Podemos reírnos, discutir o censurar, pero eso no
    cambiará nada.

    Un saludo y gracias.

  3. «Para los que somos así como muy profundamente mecanicistas y reduccionistas sobre la mente, que al final es algo emergente de un de una máquina muy compleja, ¿no? Pues bueno, este tipo de conexiones entre la genética y las cosas que nos pasan en la cabeza, pues nos reafirman un poco en estas posiciones. Mientras que la gente que ve la mente como algo más etéreo, espiritual, no sé, algo trascendente, humano, que no se puede convertir en un simple soporte material, pues a ver cómo explicas que lo que tienes en los genes afecte a a cómo te comportas, a cómo piensas, a tu conducta.»

    Socas vuelve a manifestar que no entiende el concepto de emergencia. El reduccionismo y el emergentismo ontológicos son incompatibles. No puedes defender los dos en la misma frase. La emergencia no trata de propiedades agregativas, deducibles de las propiedades de las partes de un sistema, donde la causalidad solo opera bottom-up. Eso es reduccionismo. La emergencia implica propiedades organizativas que no son deducibles de las propiedades de las partes. Por eso, ontológicamente, son genuínas novedades naturales. Y ejercen un poder causal descendente sobre las partes. Por eso no son reducibles a estas.
    Socas plantea una dicotomía entre un reduccionismo mecanicista y un dualismo de sustancias sobrenatural. Hay alternativas naturalistas a ambos. El emergentismo ontológico, con su pluralismo de propiedades (especialmente si hablamos de propiedades de procesos y no de sustancias), su bidireccionalidad causal, su apertura a la novedad organizativa con poder causal a todos los niveles, es una. La naturaleza se hace sobre la marcha. No es el despliegue de un algoritmo determinista.
    Y el naturalismo no necesita ser materialista. Un sistema natural puede tener propiedades inmateriales con tanto poder causal como las materiales. La mente no es algo etéreo, espiritual o trascendente, pero es inmaterial. El cerebro no es lo mismo que la mente, como el software no es lo mismo que el hardware. El software tampoco es material, pero no por ello deja de tener poder causal sobre los procesos de la computadora (la analogía es útil, pero no implica un funcionalismo computacional para la mente).

    1. Yo también me he sentido algo incómodo con la manera en la que se han liquidado esos asuntos. Intento aclararme: creo que la mente humana no es abordable con el mismo modelo de “vacas esféricas” que se aplica en las demás ciencias. Hay que definir de manera objetiva todas las características que hacen de la mente humana lo que es, y ahí ya nos topamos con el mayor de los problemas del método científico: ¿cómo objetivar lo que es más individual y lo que hay que admitir como experiencia individual por derecho propio? ¿Acaso se podría negar la base misma de nuestro conocimiento exterior?

      Si el conocimiento objetivo exterior te dice que la experiencia subjetivo exterior que estás viendo vale, es comprensible: se trata de una alucinación. Pero si lo objetivo exterior te dice que lo subjetivo interior que estás viviendo es una ilusión, ahí tenemos un problema de allanamiento y de aplicación de un método que, por construcción, pretende ser objetivo fuera de su ámbito de alcance. Y toda teoría de la mente tiene que explicarlo, sí o sí; si no, es incompleta. Si lo niega, también es incompleta.

      Mientras tanto, lo más prudente es limitarse a lo que de momento es consensual: no sabemos si la mente —en su complejidad experiencial— es completamente describible en términos deterministas y algorítmicos, o si hay alguna propiedad emergente que hace que la suma de sus componentes sea mayor que sus componentes tomados por separado. Por supuesto, cada investigación nos permitirá definir mejor esas experiencias subjetivas basadas en estímulos exteriores, pero difícilmente lograremos abrir la “caja negra” que es la experiencia subjetiva basada en estímulos interiores.

  4. «¿Acaso se podría negar la base misma de nuestro conocimiento exterior?»
    https://evanthompson.me/the-blind-spot/

    «no sabemos si la mente —en su complejidad experiencial— es completamente describible en términos deterministas y algorítmicos»
    Nisiquiera una partícula lo es. Los únicos algoritmos deterministas que existen en la naturaleza son los que escribimos nosotros. Esa duda solo inquieta a quienes creen en un universo mecánico. No es el nuestro.

Deja un comentario