Te recomiendo disfrutar del episodio 462 del podcast Coffee Break: Señal y Ruido [iVoox A, iVoox B; iTunes A y iTunes B], titulado “Ep462: Planeta 9; IceCube; Tortugas; Matemáticas», 02 may 2024. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. En el episodio de hoy: Cara A: Nuevos indicios sobre la existencia de un Planeta 9 (16:00). IceCube ha observado a 5 sigmas el neutrino tau (48:00). Cara B: Las tortugas de Florida entienden la noción de proporcionalidad (35:40). Un matemático chileno mejora la cota de Mahler-Chowla (57:00). Señales de los oyentes (1:10:05). Imagen de portada realizada por Héctor Socas. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».
¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). ¡Ya sois 224! Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!
Descargar el episodio 462 cara A en iVoox.
Descargar el episodio 462 cara B en iVoox.
Como muestra el vídeo participamos por videoconferencia Héctor Socas Navarro @HSocasNavarro (@pCoffeeBreak), Alberto Aparici @cienciabrujula, y Francis Villatoro @emulenews. Por cierto, agradezco a Manu Pombrol @Manupombrol el nuevo diseño de mi fondo para Zoom. Muchas gracias, Manu.
Tras la presentación de Héctor desde la sala Celsius de la Universidad de Uppsala; mañana será miembro del tribunal que juzgará la tesis doctoral de Matías Suazo sobre la búsqueda esferas de Dyson. Tras dos anuncios de Alberto, Héctor nos comenta los nuevos indicios sobre la existencia de un Planeta 9 (P9) publicados por Konstantin Batygin y Michael E. Brown (@PlutoKiller), padres de la hipótesis P9, junto a Alessandro Morbidelli (padre del modelo de Niza) y David Nesvorny. Como ya sabrás el origen de la hipótesis del P9 es una serie de irregularidades: la aparente agrupación de líneas absidales de órbitas de objetos transneptunianos (TNO) de período largo, la alineación de sus planos orbitales, la existencia de objetos con perihelio que se extiende mucho más allá de la influencia gravitacional de Neptuno, la distribución muy extendida de inclinaciones de TNO, y la sorprendente prevalencia de centauros retrógrados. Esta hipótesis se propuso para TNO que están influidos por Neptuno.
En el nuevo trabajo se estudian TNO que se ven influidos por Neptuno, cuyas órbitas son inestables (esta población de objetos no debería mantenerse estable durante mucho tiempo, porque la influencia de Neptuno actúa como una barrera que impide su existencia). Se comparan las simulaciones por ordenador de dos modelos con y sin Planeta 9 (un planeta de 5 masas terrestres con un semieje mayor de 500 AU, una excentricidad de 0.25 y una inclinación de 20 grados). La simulación incluye los planetas gaseosos (Júpiter, Saturno, Urano y Neptuno) y un Planeta 9. Se han estudiado TNO con un periodo a > 100 UA, una inclinación orbital i < 40 grados y un perihelio q < 30 UA. Se observa que las órbitas de estos TNO solo son estables si existe un planeta 9; así se rechaza a ∼ 5 𝜎 (sigmas) de nivel de confianza la hipótesis nula (que no exista el P9). Por ello se afirma que se obtiene una nueva línea de evidencia que respalda la existencia del Planeta 9 (P9).
Destaca Héctor que se propone que el planeta 9 es clave para que los centauros (asteroides que orbitan entre las órbitas de Júpiter y Neptuno). Muchos centauros tienen órbitas retrógradas, un fenómeno que no tiene explicación. En el nuevo artículo se propone que podrían ser cuerpos dispersados por el Planeta 9 hacia el Sistema Solar interior; como proviene de muy lejos, algunos acaban llegando al Sol por un lado y otros por el otro lado, por ello hay una gran proporción de cuerpos que acabarían con órbitas retrógradas. Por supuesto, todos estos resultados tendrán que ser confirmados por estudios independientes. El nuevo artículo es Konstantin Batygin, …, Michael E. Brown, David Nesvorny, «Generation of Low-Inclination, Neptune-Crossing TNOs by Planet Nine,» arXiv:2404.11594 [astro-ph.EP] (17 Apr 2024), doi: https://doi.org/10.48550/arXiv.2404.11594.
Me toca comentar que IceCube ha observado a 5 sigmas neutrinos tau astrofísicos (en concreto, siete sucesos). La observación del neutrino tau fue publicado por el experimento DONuT en el año 2000 (cuatro neutrinos en los datos de 1997); el análisis final de los datos publicado en 2008 observó nueve neutrinos tau (DONuT Collaboration, «Final tau-neutrino results from the DONuT experiment,» Phys. Rev. D 78: 052002 (11 Sep 2008), doi: https://doi.org/10.1103/PhysRevD.78.052002). El experimento OPERA en 2015 observó a 5.1 sigmas cinco neutrinos tau en la oscilación de neutrinos muónicos generados en CNGS (CERN), que se elevó a 6.1 sigmas en su resultado final en 2018 (OPERA Collaboration, «Final results on neutrino oscillation parameters from the OPERA experiment in the CNGS beam,» Phys. Rev. D 100: 051301(06 Sep 2019), doi: https://doi.org/10.1103/PhysRevD.100.051301). Super-Kamiokande también observó a 4.6 sigmas los neutrinos tau gracias a un exceso de 338.1 ± 72.7 sucesos (Super-Kamiokande Collaboration, «Measurement of the tau neutrino cross section in atmospheric neutrino oscillations with Super-Kamiokande,» Phys. Rev. D 98: 052006 (13 Sep 2018), doi: https://doi.org/10.1103/PhysRevD.98.052006). En 2019, IceCube publicó la observación a 3.2 sigmas de un exceso asociado de neutrinos tau atmosféricos con energías entre 5.6 y 56 GeV (IceCube Collaboration, «Measurement of atmospheric tau neutrino appearance with IceCube DeepCore,» Phys. Rev. D 99: 032007 (15 Feb 2019), doi: https://doi.org/10.1103/PhysRevD.99.032007), y en 2022 publicó la observación a 2.8 sigmas de dos neutrinos tau con energías superiores a 1.5 PeV y 65 TeV (IceCube Collaboration, «Detection of astrophysical tau neutrino candidates in IceCube,» Eur. Phys. J. C 82: 1031 (15 Nov 2022), doi: https://doi.org/10.1140/epjc/s10052-022-10795-y).
Ahora IceCube publica la observación a 5.1 sigmas de siete neutrinos tau astrofísicos con energías entre 20 TeV y 1 PeV en su análisis de 9.7 años de datos. Un neutrino muónico impacta con un núcleo del hielo y produce una cascada hadrónica y un muón que deja una traza alargada de radiación Cherenkov (señal tipo track). El impacto de un neutrino electrónico produce sendas cascadas hadrónica y electromagnética que se observan como una cascada más o menos esférica (señal tipo cascade). Y un neutrino tau produce una doble cascada hadrónica, una por el impacto, que produce un leptón tau que se propaga decenas de metros y acaba decayendo en una segunda cascada (señal tipo double-cascade). Para neutrinos tau de baja energía es muy difícil diferenciar entre una señal tipo cascada y tipo doble cascada; se necesita que el leptón tau recorra más de 10 metros para poder estudiar las correlaciones entre los tiempos de llegada a diferentes módulos detectores para inferir la existencia de una doble cascada.
IceCube tiene 5160 módulos ópticos digitales (DOM) en 86 cuerdas (80 DOM por cuerda) en un volumen de un kilómetro cúbico de hielo en el Polo Sur (a 1.5 km de profundidad). Para detectar los neutrinos tau se han usado tres redes de neuronas convolucionales (CNN) entrenadas mediante simulaciones por ordenador para distinguir entre sendas señales de tipo cascada, traza y doble cascada (la red estima una probabilidad P ∈ [0, 1], que si es mayor de 0.90 indica una identificación positiva). Cada CNN tiene como entrada tres imágenes de 60 × 1000 píxeles; cada imagen muestra la evolución en tiempo durante 300 nanosegundos (con un paso de 3.33 ns) de los 60 DOM de una cuerda. Las tres imágenes corresponden a la cuerda más iluminada y sus dos cuerdas vecinas más iluminadas. Para un suceso de tipo neutrino tau se observan en la primera de esas imágenes una especie de cuña (como una letra uve), que representa la proyección de la energía de la cascada en una cuerda. Y en las otras dos cuerdas se observan sendas cuñas de menor intensidad y retrasadas cierto tiempo. Se han identificado siete sucesos tipo tau (dos con P en 0.90-0.92 y otros cinco con P en 0.94-0.95), entre ellos los ya publicados.
Lo más interesante es que se interpretan estos siete neutrinos tau como neutrinos astrofísicos, es decir, resultado de la oscilación de neutrinos durante su trayecto desde su fuente astrofísica lejana que produce neutrinos electrónicos y muónicos. Así se trataría de la primera observación de la oscilación de neutrinos en distancias astrofísicas (de miles de millones de años luz). El artículo es IceCube Collaboration, «Observation of Seven Astrophysical Tau Neutrino Candidates with IceCube,» Phys. Rev. Lett. 132: 151001 (11 Apr 2024), doi: https://doi.org/10.1103/PhysRevLett.132.151001; más información divulgativa en Katherine Wright, «Seven Astrophysical Tau Neutrinos Unmasked,» Physics 17: 58 (11 Apr 2024) [web].
Nos cuenta Alberto un estudio que muestra que las tortugas de Florida (llamada de orejas rojas, por unas manchas roj1s que tiene a ambos lados de la cabeza) pueden aprender la noción de proporcionalidad. Se entrena a tortugas Trachemys scripta elegans para diferenciar entre 5 bolas amarillas (5Y-0B) y 5 bolas azules (0Y-5B); luego se las entrena para diferenciar entre 4Y-1B y 1Y-4B, entre 4Y-1B y 2Y-3B, y entre 2Y-3B y 1Y-4B (se les ofrece un premio si seleccionan el conjunto con mayor proporción de bolas amarillas). Hay tortugas que no pasan el entrenamiento, pero a las que lo pasan se las somete a tres pruebas (tests): diferenciar 6Y-2B de 6Y-10B (ver la fotografía), entre 5Y-1B y 7Y-9B, y entre 8Y-8B y 2Y-6B. Los resultados muestran que las tortugas saben elegir el conjunto que tiene una proporción relativa mayor de bolas amarillas (en lugar de una cantidad absoluta de bolas). Por ejemplo, las trece tortugas aceptaron en el test 8Y-8B vs 2Y-6B, y nueve en el test 5Y-1B y 7Y-9B.
La estadística es pequeña, porque este tipo de experimentos son muy costosos. A pesar de ello, los autores consideran que esta capacidad de «entender» la proporcionalidad (o la numerosidad) podría ser común a todos los reptiles. El artículo es Xiaoqian Sun, Yige Piao, …, Jianguo Cui, «Keep numbers in view: red-eared sliders (Trachemys scripta elegans) learn to discriminate relative quantities,» Biology Letters 19: 20230203 (19 Jul 2023), doi: https://doi.org/10.1098/rsbl.2023.0203 [recomiendo el vídeo de la información suplementaria].
Me toca comentar que un matemático chileno, Héctor Pastén, ha mejorado la cota de Mahler–Chowla para el mayor factor primo del sucesor de un cuadrado. Este resultado ha tenido bastante eco en los medios chilenos. Se llama 𝒫(n) al mayor divisor primo del número n. La idea es estudiar la función 𝒫(n²+1), para n entero positivo; por ejemplo, 𝒫(6²+1) = 𝒫(37) = 37, 𝒫(7²+1) = 𝒫𝒫(50) = 5, y 𝒫(8²+1) = 𝒫(65) = 13. Lo curioso es que 𝒫(n²) suele ser pequeño, mientras 𝒫(n²+1) suele ser grande; por ejemplo, para 𝒫(32²) = 𝒫(1024) = 2, mientras 𝒫(32²+1) = 𝒫(1025) = 41. Markov (1895), usando un trabajo previo de Chebyshev, demostró que hay un número infinito de números n para los que 𝒫(n²+1) ≥ c n², para alguna constante positiva c. Mahler (1935) y Chowla (1935) demostraron, de forma independiente, que 𝒫(n²+1) ≥ c log (log n) = c log2 n. Esta cota fue mejorada por Shorey y Tijdeman (1976) a 𝒫(n²+1) ≥ c log (log n) log (log (log (n)) / log (log (log (log n))) = c log2 n (log3 n / log4 n).
Héctor Pastén (Pontificia Universidad Católica de Chile) ha mejorado estas cotas para obtener 𝒫(n²+1) ≥ c (log (log n))² / log (log (log (n)) = c (log2 n)² / log3 n. En su artículo en Inventiones Mathematicae de febrero de 2024 también ha obtenido una cota para el radical rad(𝑛), el producto de sus divisores primos (sin repeticiones). Pastén también ha demostrado que rad(n²+1) ≥ exp (c (log2 n)² / log3 n); que se considera un pequeño avance hacia la conjetura abc. Estos resultados de Pastén se han demostrado asociando a n²+1 una curva elíptica que resulta ser una curva de Shimura (una variedad de Shimura unidimensional); gracias a ello puede aplicar varias acotaciones sobre curvas de Shimura que publicó en otro artículo este mismo año. Sin lugar a dudas un trabajo interesante, aunque resulta difícil predecir qué recorrido futuro tendrá en teoría números. El nuevo artículo es Hector Pasten, «The largest prime factor of and improvements on subexponential,» Inventiones mathematicae 236: 373-385 (26 Feb 2024), doi: https://doi.org/10.1007/s00222-024-01244-6; basándose la demostración en el trabajo más técnico Hector Pasten, «Shimura curves and the abc conjecture,» Journal of Number Theory 254: 214-335 (22 Aug 2023), doi: https://doi.org/10.1016/j.jnt.2023.07.002.
Y pasamos a Señales de los Oyentes. J1407b (también llamado 1SWASP J140747.93–394542.6), que está considerado un «supersaturno» porque tiene un «superanillo», pero que no es estable, ya que supera el límite de Roche. Héctor nos aclara que no se trata de un anillo como el de Saturno, sino un disco «protolunar», un anillo de materia en el que se está formado un sistema de exolunas (de hecho, hay un hueco que se interpreta como debido una exoluna ya formada). Por tanto, en rigor, es un disco protolunar, que no se sabe si acabará dando lugar a un anillo o no.
Héctor comenta que se refiere a WASPBruno Jiménez pregunta: «Duda: sabiendo que los neutrinos oscilan, ¿qué importa detectar neutrinos tau para relacionarlos con el tipo de neutrinos emitidos en la fuente?» Contesta Alberto, más o menos, que el objetivo no es identificar neutrinos tau per se, sino que el objetivo de detectores como IceCube es hacer astronomía de neutrinos. Por ello, hay que intentar detectar todos los neutrinos, sean del tipo que sean. Aunque sean pocos, si no se detectan los taus, se perderá información de posible interés astronómico.
Héctor aclara que Plutón está protegido por una resonancia orbital 3:2 con Neptuno (tres órbitas de Neptuno por cada dos de Plutón). Por ello, Plutón no forma parte de la población inestable de cuerpos que comentó Héctor.
Thomas Villa comenta varias cosas sobre la metaestabilidad del universo en el chat de YouTube. Alberto aprovecha para comentar el significado de que el Modelo Estándar sea metaestable. Lo es asumiendo la hipótesis del desierto, que no hay nueva física entre la escala electrodébil y la escala de Planck. Ningún físico opina que así sea, pues hay muchos problemas (como la materia oscura, los neutrinos estériles, la inflación, etc.) que exigen la existencia de física a escalas de energía intermedia. Solo cuando se conozca dicha física se podrá saber si logra estabilizar el Modelo Estándar (pero, a priori, es de esperar que lo logre).
¡Que disfrutes del podcast!
Gracias por contestar a mis preguntas, me parece precioso el mecanismo de Higgs y todas sus implicaciones sobre la masa. Mi pregunta era relacionada al potencial V(phi) al que cae el Higgs una vez que es estable (m^2>0). Si esa caida hubiese sido mas profunda (osea, si el fondo del pozo de potencial hubiese sido mucho mas bajo del actual en relacion a lo que definimos cero) eso hubiera significado que en principio -digamos- un quark top hubiera tenido a disposicion un mayor valor de expectacion del vacio y por ende una masa mas elevada? Eso significaria que una vez que el Higgs cayese a un estado de verdadero vacio (ademas de toda la energia cinetica suelta) podrian crearse particulas con masa mucho mas elevada de las actuales a traves de la interaccion con el Higgs? Podrian «engordar» las particulas despues de un decaimiento del falso vacio? Un saludo! 🙂
Thomas Villa, la masa de las partículas es producto del acoplo de Yukawa (cuyo valor tiene un origen a alta energía que desconocemos, pero quizás esté asociado a la rotura de la supersimetría o de una simetría GUT a alta energía) y el valor de vacío del campo de Higgs v = |ϕ| en el mínimo del potencial V(|ϕ|). El valor del potencial V(v) es irrelevante; luego que que el pozo de potencial sea más o menos profundo no influye en la masa de las partículas (pero influye en la duración y otros detalles de la transición de fase electrodébil). En cuanto a la relación entre V(v) y la energía que definimos como cero, el convenio es que sean iguales, es decir, se define la energía cero como el valor de V(v).
Por otro lado, no hay ninguna razón física conocida por la que el campo de Higgs no pueda de dotar de masa a una partícula de mayor masa que el quark top (si es que dicha partícula existiese). Nadie si existe alguna razón física por la que el acoplamiento de Yukawa del quark top es muy próximo a la unidad (0.95 ± 0.07 según ATLAS en Nature (2022), https://www.nature.com/articles/s41586-022-04893-w, y 0.94 ± 0.08 según CMS en Nature (2022), https://www.nature.com/articles/s41586-022-04892-x). Pero hasta donde sabemos, el acoplamiento de Yukawa no cambia durante la transición de fase electrodébil (así que no puede ocurrir que una partícula «engorde»).
Vale, me costo bastante entenderlo pero ahora creo que lo he pillado. La caida desde lo mas alto del potencial hasta el punto mas bajo del potencial es ΔV, y ese no influye directamente en el VEV del campo. Lo que importa es v(phi) con v minusculo, que -si bien he entendido lo que se esconde detras de las mates- seria algo asi como el «radio» del valle que rodea la parte mas «alta» del potencial. Un «radio» v(φ) mas grande, con lambda igual, lleva a un VEV mas grande y a un «universo mas pesado», si se me permite la metafora. A quien se le ocurrio darle a cosas tan diferentes (y tan complejas!) nombres tan parecidos? A los legos tontos nos cuesta entenderlo ajaja! No podrian haberlo llamado r(phi) que se entendia mejor? 🙂
Pues nada, entonces ahora puedo formular mejor la pregunta (a ver si lo logro). Si estuvieramos en un vacio metaestable, y cayeramos en el estado de verdadero vacio, el «radio» del valle del potencial (el llamado v(φ)) necesariamente seria mas grande y entonces el VEV seria mas grande y el universo en promedio seria mas «lento» y por ende percibido como mas «pesado»? La barrera del potencial tiene que ser bastante espesa (llamemos ese espesor ε) para que no se haya producido todavia un efecto tunel, supongo…vamos, que si estuvieramos en un vacio metaestable, el nuevo v(φ)’ seria algo asi como v(phi)+ε, ya que si ε fuese muy pequeño ese efecto tunel seria muy probable y ya hubiera pasado…lo habre entendido mejor? 🙂 Gracias!
Muchisimas gracias, ahora me ha quedado mas claro, creo! Lo que influye es el acoplamento Yukawa que de momento es medido experimentalmente como un parametro libre.A ver si lo he entendido: aunque pueda encontrarse en un estado mas o menos energetico, el valor del vacio del Higgs es simplemente un «almacen de alimentos», que puede ser mas o menos lleno, pero el que al final sirve la «comida» a las particula (determina la masa) es el camarero (el parametro del Yukawa coupling) que lleva los platos a la mesa…(forzando un poco los terminos con metaforas libres…)…en la ecuacion de Yukawa, V≈gψ*ϕψ, donde ψ*ψ es el campo de Fermi-Dirac que anticomuta, el ϕ seria el «almacen» a disposicion y el parametro g seria el camarero, por asi entenderlo…que bien atado esta todo en el el campo de Higgs, me encanta, aunque no se hubiera encontrado, tenia que ser algo asi para que respondiera al misterio de las masas de las particulas…me encantan los campos escalares, dan muchisimo juego! 🙂
Francis, sobre el límite de 125 MeV que separa la supersimetría de lo demás (se nota que no entiendo ni jota) busqué y encontré dos artículos tuyos del 2011: https://francis.naukas.com/2011/08/22/nuevo-limite-de-exclusion-para-la-masa-del-boson-de-higgs-en-atlas-del-lhc-con-10-23-fb-de-colisiones/ y https://francis.naukas.com/2011/02/17/nuevos-limites-de-exclusion-para-la-supersimetria-segun-cms-y-atlas-del-lhc-en-el-cern/
A la luz actual y por la explicación que dabas, vale la pena una actualización? O con lo que decías en 2011 es suficiente?
Ge, ninguno de esos dos artículos dice nada sobre dicho tema. El primero (17 feb 2011) es sobre los primeros límites de exclusión de la supersimetría en el marco de una versión del modelo estándar supersimétrico mínimo con restricciones (CMSSM) para la masa del gluino respecto a la masa del neutralino; estos límites han mejorado bastante, casi un orden de magnitud. Hoy en día hay decenas de límites para diferentes combinaciones de partículas. El resumen general es que todos excluyen los modelos más sencillos de supersimetría en la escala de energía electrodébil, pero los más complicados son imposibles de excluir. Más allá de una exposición de muchas figuras con poco valor divulgativo, no hay mucho más que contar.
Y el segundo (22 ago 2011) es sobre los primeros límites de exclusión del LHC sobre el bosón de Higgs (que lo acotaban entre 115 y 145 GeV). Como se descubrió en julio de 2012, estos resultados solo tienen interés histórico. Sobre el tema que te interesa, la relación entre el MSSM y la masa del Higgs te recomiendo https://francis.naukas.com/2012/07/06/el-boson-de-higgs-encontrado-en-el-lhc-y-su-relacion-con-la-supersimetria/, https://francis.naukas.com/2013/12/30/el-boson-de-higgs-podria-ser-el-primer-indicio-de-la-supersimetria/, https://francis.naukas.com/2015/05/31/la-supersimetria-mssm-se-resiste-a-morir/, y https://francis.naukas.com/2015/06/25/el-modelo-supersimetrico-minimo-i-la-teoria/, entre otras piezas.
Mil gracias Francis. Ahora, luego de leer tus recomendaciones, tengo más claro que no entiendo nada. 😉 Con 120 parámetros ajustables y predicciones más allá de la capacidad de los colicionadores, el «depende» parece combinar con «es relativo» para producir un gas de incertidumbre.
Francis
Cual es la diferencia entre un alphafold 10 que prediga con mas del 95% estructura interacciones y en el futuro dinamica con ligandos con antivcuerpos o proteina proteina y una simulacion en una computadora cuantica del futuro?
Mariana, predecir el futuro es imposible y comparar lo que no existe, y quizás nunca exista, mucho más. Se acaba de publicar AlphaFold 3 y no se sabe si algún día existirá un AlphaFold 10; sabemos cómo funciona AlphyaFold 3, realiza predicciones para las interacciones entre macromoléculas basadas en generalizar los patrones conocidos (tanto determinados de forma cristalográfica como de forma predictiva); como se conocen pocos, nadie sabe si predice bien o no. Pero es una gran ayuda, un primer paso, una primera hipótesis, para empezar a trabajar en los detalles en laboratorio. Si llega a existir AlphaFold 10, será algo parecido, un generador de hipótesis a partir de patrones conocidos.
Por otro lado, no se sabe si algún día existirá un algoritmo cuántico capaz de simular el plegamiento de una proteína o la interacción entre macromoléculas. No es una cuestión de añadir cúbits lógicos, hace falta un algoritmo específico. Nadie sabe si el plegamiento y la interacción son problemas algorítmicos (quizás no lo sean); si lo fuesen, tampoco se sabe si serán un problema eficiente en un ordenador cuántico (hay pocos problemas eficientes conocidos); si lo fuese, tampoco se sabe si el resultado será una hipótesis más significativa que la del hipotético AlphaFold 10 (quizás sean comparables, o quizás no).
El futuro no existe, está en construcción. Predecir el futuro es imposible.
Francis, parece ser que Michio Kaku (que en los últimos años, lamentablemente, es un desinformador con patas) anda ahora de podcast en podcast aterrorizando al personal sobre el futuro de la IA en la computación cuántica (no solo hizo oídos sordos a críticas como las del mismísimo Scott Aaronson en intervenciones pasadas diciendo falsedades, si no que ahora riza el rizo). De hecho dejó preocupado a Neil deGrasse Tyson, pues incluso en episodios posteriores de su StarTalk (con Chuck Nice, un podcast en youtube divertidísimo y muy recomendable) lo comentaba…
Mi pregunta, Francis, es, desde tu intuición, si no se descubre nada nuevo sobre las IA, basándonos en lo que tenemos ahora, ¿crees que la velocidad de la computación cuántica puede impactar realmente en lo que podrían ser capaces de hacer?
Pedro, no se puede hablar de la «velocidad de la computación cuántica» (que ahora, y siempre, será extremadamente lenta). Solo se puede decir que algunos algoritmos cuánticos son más eficientes que su correspondiente algoritmo clásico. No se conoce ningún algoritmo cuántico aplicable a inteligencia artificial que sea más eficiente que su versión clásica. Hay miles de investigadores trabajando en ello desde hace dos décadas, sin éxito. Pero incluso si se descubriera alguno, su impacto sería muy limitado. Si quieres emular al encéfalo, que es clásico, lo obvio es usar computación clásica. El nicho de la computación cuántica es la simulación de sistemas cuánticos (en el caso general, su clase de complejidad es EXP-SPACE, imposible para un ordenador clásico).
«El futuro no existe, está en construcción. Predecir el futuro es imposible.»
Muy bien dicho, pero que no lo lea Giribet o esta tarde rompe la cuadrícula del Zoom entre entre Málaga y New York para agarrarte la pechera.
https://twitter.com/GastonGiribet/status/1788036133307236502
Hola, como lego sé cuál es mi sitio,
pero que sean de Dirac, y que predecir
el futuro es imposible lo dudo.
Y como todo lo que vemos y sentimos es pasado,
el futuro está en construcción.
Un saludo y gracias.