Imagina que gastas millones de dólares en construir un ordenador para resolver un problema concreto. ¿Esperarías que tras diez años de desarrollo fuera más rápido que un ordenador personal para resolver dicho problema? D-Wave QPU, que usa 2000 cubits superconductores, es unas 2600 veces más rápido que el mejor algoritmo clásico (HFS) para resolver el único problema que sabe resolver. Por supuesto, esto no significa que se haya logrado la supremacía cuántica, ya que no está demostrado que D-Wave QPU sea un ordenador cuántico; podría ser un ordenador clásico no determinista que usa cubits como bits aleatorios, es decir, una fuente cuántica de aleatoridad.
Quizás recuerdes que en 2014 fue noticia que D-Wave Two, con 512 cubits, era unas 3600 más rápido que algunos algoritmos clásicos. ¿Ahora es más lento? Como ya te conté la comparación estaba sesgada. Solo se usó recocido simulado (SA) y un algoritmo de Montecarlo cuántico simulado (QMC). En 2014, D-Wave Two era más lento que el mejor algoritmo conocido (HFS por Hamze–de Freitas–Selby). Ahora, D-Wave QPU ha logrado batir a HFS.
El artículo, para los interesados en más detalles, es James King, Sheir Yarkoni, …, Catherine C. McGeoch, «Quantum Annealing amid Local Ruggedness and Global Frustration,» arXiv:1701.04579 [quant-ph]; el artículo previo era Andrew D. King, Catherine C. McGeoch, «Algorithm engineering for a quantum annealing platform,» arXiv:1410.2628 [cs.DS]. Me ha gustado mucho el resumen de la situación actual de Scott Aaronson, «Insert D-Wave Post Here,» Shtetl-Optimized, 16 Mar 2017; por ello en esta entrada te resumo su resumen y te recomiendo consultar el original para más detalles.
D-Wave QPU es el nombre de la nueva versión de D-Wave 2000Q. Esta máquina usa 2048 cubits superconductores que se pueden conectar entre sí con la topología de un grafo quimera C16 gracias a 6016 acopladores (el grafo tendría 2048 vértices y 6016 aristas entre ellos). Un grafo quimera C16 está formado for una matriz de 16 × 16 celdas de tipo quimera, cada una conteniendo un grafo bipartito de 8 vértices (grafo K4,4). Cada vértice interior está conectado a sus cuatro vecinos en la celda y a dos vecinos (norte/sur o este/oeste) fuera de la celda, por tanto tiene 6 conexiones; los vértices del contorno tienen menos conexiones. En el nuevo artículo de Catherine C. McGeoch y sus colegas el grafo más grande usa 2035 vértices.
Las máquinas de D-Wave resuelve el problema de determinar el estado de energía mínima para una red de espines de Ising conectados entre sí con la topología de un grafo de tipo quimera. Solo este problema y nada más que este problema. Cualquier otro problema que se quiera resolver debe ser mapeado en este problema, lo que redunda en una pérdida de eficiencia. Esta máquina de propósito específico está muy lejos del sueño de un ordenador cuántico de propósito general.
El gran problema, aún sin resolver, de la máquina D-Wave QPU es saber si realiza una computación cuántica. No basta con usar un hardware cuántico, cubits acoplados, además, hay que probar que aprovecha las ventajas cuánticas (efecto túnel, superposición de estados, coherencia cuántica, etc.). ¿No basta la supremacía sobre el mejor algoritmo clásico conocido? El factor de 2600 de ventaja se ha logrado para un conjunto muy concreto de instancias (problemas en el grafo tipo quimera C16 especialmente seleccionados para aprovechar las ventajas de D-Wave QPU). En una instancia genérica la ventaja sobre HFS desaparece.
El diablo está en los detalles. Se ha demostrado que estas instancias concretas tienen truco, son resolubles en tiempo polinomial con un algoritmo específico en un ordenador clásico (Salvatore Mandrà, Helmut G. Katzgraber, Creighton Thomas, «The pitfalls of planar spin-glass benchmarks: Raising the bar for quantum annealers (again),» arXiv:1703.00622 [quant-ph]). Para estas instancias existe un algoritmo mucho más rápido que HFS y mucho más rápido que D-Wave QPU. La comparación entre la máquina de D-Wave y los algoritmos clásicos vuelve a estar sesgada (como viene siendo costumbre en estos artículos que investigadores de D-Wave Systems que buscan eco mediático y poco más).
¿Algún día una máquina D-Wave superará al mejor algoritmo clásico en una instancia general? Con los millones de dólares que está recibiendo así debería ser. Sin embargo, algunos expertos en computación cuántica no lo tienen tan claro. Hay varios argumentos que contradicen la idea de que añadir más y más cubits permita acercarse a la supremacía. Todo lo contrario, la ventaja de usar cubits acaba diluyéndose y para problemas de interés práctico su comportamiento será mucho peor que un algoritmo clásico. Entre quienes opinan en este sentido quisiera destacar el artículo de Troels F. Rønnow, Zhihui Wang, …, Matthias Troyer, «Defining and detecting quantum speedup,» Science 345: 420 (2014), doi: 10.1126/science.1252319, arXiv:1401.2910 [quant-ph]).
En relación al futuro de las máquinas de D-Wave Systems se acaba de publicar un interesante artículo. En el recocido cuántico la temperatura a la que funcionan los cubits es clave para el rendimiento de la máquina. D-Wave QPU usa cubits superconductores enfriados a 15 mK (0,015 grados sobre el cero absoluto). Usando esta temperatura el rendimiento que se puede lograr usando 4000 cubits será similar a usar 2000 cubits. No habrá ninguna ventaja. Para mejorar dicho rendimiento hay que usar cubits enfriados a una temperatura más baja. De hecho, conforme crece el número de cubits debe decrecer la temperatura a la que funcionan. Así lo apuntan Tameem Albash, Victor Martin-Mayor, Itay Hen, «Temperature scaling law for quantum annealing optimizers,» arXiv:1703.03871 [quant-ph].
No te dejes engañar por las noticias en los medios. Artículos y portadas como ésta de The Economist del 11 de marzo de 2017 sugieren que la supremacía cuántica está a un paso (entre un lustro y una década). Le sugieren al lego que el problema es tecnológico. Sin embargo, hay gran número de problemas de ciencia básica sobre los ordenadores cuánticos y sobre computación cuántica que aún no han sido resueltos. El camino tecnológico emprendido por D-Wave Systems y otras iniciativas, emulando a Edison y a Tesla, no parece prometedor. Incluso aunque empresas como Volkswagen anuncien a bombo y platillo acuerdos de colaboración con D-Wave.
Empresas como IBM o Google están trabajando en computación cuántica, pero con paso más firme que D-Wave. Por ejemplo, el grupo de John Martinis (Google) ha anunciado que pretenden lograr en los próximos años un computador cuántico de 49 cubits (una matriz de 7×7 cubits superconductores completamente acoplados entre sí). IBM también ha anunciado su objetivo de lograr un ordenador cuántico de 50 cubits. Lograr un ordenador cuántico de 50 cubits es un proyecto muy ambicioso. ¿Tendrán éxito Google o IBM? Quién sabe.
Quizás 50 cubits te parezcan pocos comparados con los 2000 cubits de D-Wave. Pero, recuerda, el objetivo de Google e IBM es demostrar que su ordenador es cuántico. Algo que no parece tener interés para D-Wave; a ellos les basta decir que lo es sin demostrarlo. Mientras haya crédulos…
Francis, sobre el papel, de las tecnologías usadas por IBM, Google o Microsoft para desarrollar un ordenador cuántico, ¿cual te parece la mas prometedora?. ¿Tienes alguna «favorita»?.
Alberto, todas son similares (cubits superconductores, baratos, pero malos); no habrá grandes diferencias.
Buenas Francisco:
Aprovecho con un offtopic y pido un artículo ;), please.
Me he pasado estas últimas semanas jugando al juego Horizon Zero Dawn (A partir de aquí, spoilers, si alguien lo está jugando o quiere, que no siga…).
El caso es, que en la enésima crisis robots revelándose, y autorreplicándose, el crecimiento del número de robots es imparable y la fuente de energía que usan es transformar toda la biomasa… el problema, que en poco tiempo, van a cepillarse toda la vida del planeta y el plan para sobrevivir, es encerrar en bunkers sistemas para, pasados 50 años tratando de desencriptar el código de desbloqueo de las máquinas (ojo que ya no quedarían ni plantas ni nada), parar a las máquinas y volver a repoblar el planeta clonando y esparciendo plantas etc….
Salvando todos los problemas técnicos, en la historia del juego van contando como cada parte del plan, «repoblación de plantas», «clonado de humanos», etc va a afrontar el problema y llega el punto del programa encargado de mantener todo el conocimiento humano. Esa es lo que me ha hecho pensar. ¿Cómo se afrontaría la tarea de almacenar una serie de datos, a 1000 años vista, para que sean utilizables, sin la intervención del ser humano en el mantenimiento?
Es decir, desde el punto de vista de la ciencia actual, ¿Se podría afrontar la misión de preservar todo el conocimiento humano para periodos superiores a 100 años de forma automática?
SAludos y gracie.
Hola Mario,
La vida. Un sistema vivo; no existe otro método; un sistema vivo se mantiene él solo y va evolucionando para adaptarse con los cambios; tendríamos que ver primero como implementar esa información en él, tal que con los distintos cambios evolutivos esta información pudiera recuperarse al cabo de 1000 años, pero cualquier otro soporte que se te ocurra, acabaría sucumbiendo por motivos que no podríamos controlar, como un terremoto , una erupción, meteoritos…etc
¡¡Ideaca!! Se me acaba de ocurrir un argumento para una novela de ciencia ficción: La vida en la tierra fue sembrada para poder guardar cierta información durante millones de años; el tipo de vida de los sembradores es tan distinta a la nuestra, que no nos llegan a considerar una forma de vida realmente, solo meros archivadores. Este sería el motivo por el que no encontramos la forma en que nuestra forma de vida apareció de forma natural. Los sembradores no esperaban que algunos de sus archivos evolucionaran con una forma de consciencia tal que acabaran saliendo del planeta, así que tiene que atajarlo. Para darle más temática podría suponerse que los sembradores son seres de materia oscura.
Best selleeeeeeeeeeeerr
Si. OJO SPOILER…. Esa es la idea, en el juego, la subrutina encargada de preservar el conocimiento, lo hace utilizando el adn… juraría que ya leí esto en alguna novela, no recuerdo cual, pero. Ahora mismo… pongamos que ocurre algo gordo mañana, sabemos que tenemos dos años por ejemplo para hacer maletas y prepararnos porque no va a quedar nada en pié ni vivo, y, por lo que sea, decidimos guardar todo nuestro conocimiento, por si en algún momento tenemos un visitante, más que nada para dejar las piedras pintarrajeadas con un «We were here!». ¿Tendríamos ahora mismo tecnología o medio para dejar todo nuestro conocimiento almacenado y accesible dentro de 1000, 10000, 100000 años?
Vaya, mi gozo en un pozo; si es que está todo inventado…
Pues la verdad que no se me ocurre nada que no acabe degradándose…
En definitiva TODO acaba degradándose. Si lo sabrán los dinosaurios, los trilobites, y un laaargo etcétera. ADN vivo como «sistema de backup autopreservable a largo plazo», mala idea. Muta, evoluciona, se extingue…
Además el ser vivo necesita su ADN para vivir, y la naturaleza es económica, hay poca «basura» en la longitud del ADN, o sea que hay poco «espacio libre» para almacenar lo que uno quiera sin matar al ser vivo. OK, alargamos la cadena de ADN y/o metemos unos genes extra, listo. ¿O no? Con eso mejoramos la capacidad, pero el problema de fondo sigue ahí.
Los genes portadores del backup son información no vital, es una carga inútil para los seres vivos. Por lo tanto el «sistema de corrección de errores» de la evolución no aplica. Cualquier mutante sin esos genes sería perfectamente funcional, capaz de vivir y reproducirse alegremente… y así la integridad del backup se va por el desagüe en unas pocas generaciones.
En cambio el ADN inerte…
https://youtu.be/8kk7sPjbFAU?t=148
Los discos de oro de las Voyager fueron hechos con la intención de que aguantaran miles o millones de años, por lo menos 40.000 años. ¡Nada mal!
Pero supongamos que existe un medio de almacenamiento que a temperatura ambiente puede aguantar tanto tiempo como la edad actual del universo, unos 13,6 o 13,8 mil millones de años. ¿Te sirve?
Entonces no lo supongas, aquí está:
http://www.southampton.ac.uk/news/2016/02/5d-data-storage-update.page
Saludos.
¡Grande, Pelau! Como siempre.
Claro, si materiales resistentes no nos faltan, el problema es protegerlos y tenerlos localizados para poderlos recuperar la información en el futuro, y ahí estriba el problema, porque la voyager, por ejemplo, va a la deriva y nos da igual.
Lo mejor para protegerlo somos nosotros, obviamente, porque «queremos» hacerlo (es beneficioso para nuestra reproducción y adaptación) y nos reproducimos y adaptamos, pero como esto está descartado, necesitamos un sistema con las mismas características, reproducción , adaptación y que la preservación de ese material sea imprescindible para esas características. Casi ná.
Pues eso buscaba! Gracias Pelau.
De todas formas. Está clara la degradación en el ADN, pero… quitando la técnología de la universidad de Southampton (que ojo, era lo que quería saber). Elecubrando ya… si existiera forma de almacenar la info en adn. Y la opción de ir repoblando y clonando población de la especie que sea con ese adn + backup. La degradación sería menor y en cualquier caso, las mutaciones siempre serían menores que los fallos y pérdidas con las técnicas normales (discos duros, soportes opticos, magnéticos etc) Hablando de miles de años, quiero decir. ¡no?
Crédulos con muchos billetes, hay que aclarar.
No entiendo mucho del tema de lo nuevo, un poco más de ordenadores clásicos, pero vamos, lo primero que me viene a la cabeza, es lo grande que era el ENIAC para tan poca potencia (irrisoria hoy en dia), o esos discos winchester de 4MB gigantes. Dentro de 50 años quizás digan lo mismo de éste «mamotreto».
No me puedo imaginar ningún computador cuántico, el nivel de integración y paralelismo que no para de avanzar en la tecnología del silicio me lo impide.
Pero el paralelismo tiene un «problemilla». No todos los problemas son paralelizables. Y por tanto, tener un porrón de núcleos corriendo en paralelo no sirve para ese tipo de tareas.
De hecho, un síntoma claro de que estamos llegando al límite de la tecnología es que los transistores que se consiguen con las cada vez mayores escalas de integración ya no se aprovechan en conseguir un núcleo más rápido (que sería lo óptimo), sino en añadir cada vez más núcleos, con los problemas que eso lleva asociados en términos de computación paralela, coherencia de cachés, accesos a memoria,…
Y lo anterior sin olvidar que hay problemas que no se pueden resolver en tiempo polinómico, por muy potentes que sean los ordenadores basados en la arquitectura actual.
Jorge… Ni que lo digas.
Imaginate un PC portátil con Procesador Intel i5 + 6 Gigas de Ram + 2 Gigas de Memoria gráfica.
Pues, por mucho que mire, resuelta que la Memoria gráfica está sin usar.
Además de los 6 Gigas de RAM, ahora los hay con 8 Gigas, resulta que Windows juega con Memoria virtual y, creo yo, que a no ser que sean juegos, la memoria de la Tarjeta gráfica está de adorno.
Eso sí. No juego en él ni tengo los últimos juegos de Aventuras o de Guerra.
Lo que si creo ver es que por mucho que los ordenadores sean de 64 bits, resulta que los la longitud de los códigos de carácteres son los clásicos 8 bit.
2 elevado a 2 = 256 y, en el mejor de los casos, 512 carácteres totales, incluidos los de control.
Claro… Hay que respetar la compatibilidad con los antiguos archivos .
Tiene bastante cuento la cosa, ya me direis como se pueden aprender idiomas si en los ordenadores no se puede aplicar y escribir el «Alfabetico Fonético Internacional.»
Ah… Claro… ¡Qué tonto soy. Con el dinero que dan los libros de aprendizaje del Ingles a las editoriales de Gran Bretaña y EE.UU. ya me direis.!
Toda la vida aprendiendo un único idioma, el Inglés.
Puro cachondeo.
Saludos.
¿Has explorado la carpeta Fuentes con los archivos ocultos y de sistema VISIBLES, es decir, con las Opciones de carpeta «Mostrar archivos ocultos» y «Ocultar archivos protegidos del sistema» seteadas AL REVÉS de como vienen predeterminadas?
Más fácil, ¿alguna vez has usado la herramienta de sistema Mapa de caracteres (charmap.exe)? Ahí verás una cosilla llamada Unicode que anda suelta en el ruedo desde 1991.
¿No será que escribes en el Bloc de notas (que sigue usando ASCII por cuestiones de retrocompatibilidad)? Venga, escribe en un procesador de texto compatible con Unicode usando fuentes tipográficas con caracteres Unicode (¡como los de este blog!) y luego me cuentas…
Acerca de la memoria gráfica de las GPU integradas (que usan la RAM del sistema por carecer de RAM dedicada propia), el firmware (BIOS o UEFI) reserva un monto fijo mínimo (configurable o no según sea el BIOS Setup y el chipset, con Intel la tienes cruda y si el PC es portátil peor) que luego el driver administra (debería) de manera dinámica según la carga de trabajo (nuevamente con Intel la tienes cruda, sus drivers son abominables en este y otros aspectos).
Empezando por la condenada interfaz Aero (típicamente desactivable sólo en las versiones «no recortadas» de Windows, o sea, las que NO vienen preinstaladas en los PC portátiles, gracias) hay muchas aplicaciones que no son juegos y hacen uso de esa memoria porque aunque no lo parezca trabajan en modo gráfico acelerado, ya me dirán para qué infiernos pero la «modernidad» es lo que tiene.
Pero no todo es desperdicio. Los navegadores web (Chrome, Firefox, etc.) hacen uso de la aceleración gráfica para cosas tan importantes como ver vídeos de gatos en YouTube o hacer brillar los botones Me gusta de manera cautivante. En fin, que cada cual usa la informática para lo que quiere y buenamente puede.
Ahora bien, ¿y qué tiene todo esto que ver con la computación cuántica? Absolutamente nada. Puro cachondeo.
Saludos.
Parece que eres de los cuenticos, digo de los cuánticos.
Entonces habras leido este libro:
— La ciencia. Lo bueno, lo malo y lo falso —
—– Martin Gardner – 1981 —-
Hablando del UNICODE, Una pregunta:
¿Conoces algún Diccionario serio en formato .epub, Inglés-Español donde pueda ver la traducción y también los carácteres AFI o (API).?
Te lo agradecería mucho. Me dijeron que esta era la mejor forma de aprender idiomas, y no solo uno sino varios.
Por cierto podrías dar alguna cifra concreta sobre longitud o bits del de los carácteres y su relación con el código ASCII, el UNICODE, etc. Cifras concretas, por favor.
Me tengo que ir… Luego te cuento, me cuentas más cosas.
Saludos.
Unicode, cifras concretas:
https://en.wikipedia.org/wiki/Unicode
Unicode, tablas de caracteres:
https://en.wikipedia.org/wiki/List_of_Unicode_characters
No conozco un diccionario Inglés-Español con esas características, pero podría servirte uno convencional más los siguientes enlaces, es cuestión de copiar y pegar el texto:
Online converter of English text to IPA phonetic transcription
http://lingorado.com/ipa/
Teclado de símbolos fonéticos IPA
http://ipa.typeit.org/
Saludos.
Gracias por tu información y por tus links:
Creo que más o menos todos los que leemos Naukas entendemos lo que dices, además agradecemos tus comentarios.
– Creo que todos sabemos que los ordenadores de cada páis usan y cogen de las normas UNICODE o ISO una parte de los carácteres propios de su lenguaje. Trozos.
– La clave está en que muchas personas queremos tener en formato .epub Diccioanrios Ingles-Españól, Francés-Español, Alemán-Español, etc.
Aunque solo sea la parte correspondiente a los carácteres latinos del Unicode-ISO.
El problema básico sería saber si existen ya y están englobados totalment, aunque solo fueran los látinos, en el código ASCII que usan actualmente los PC’s de 64 bits que tenemos la mayoría de las personas.
Lo de que haya o pueda haber Diccionarios .PDF’s escaneados de libros en papel es otra cosa. Al igual que puede haber diccioanrios Ingles-Español con la parte de la pronunciación fonética puesta con imagenes.
Para más claridad, prefiero respuestas no links, las preguntas son:
– ¿Es posible hacer uno mismo un Diccionario Ingles-Español en formato .docx usando Word 2010?
– ¿Es posible guardar este fichero. Mandarlo por correo a un amigo.?
-¿ Es posible que este supuesto Diccionario Inglés-Español en formato .docx, a tamaño 9×11,7, pueda ser guardado-convertido tal cual en formato .PDF para poder leerlo en un léctor electrónico.?
La respuesta creo que es NO.
¿Qué opinas tú. Qué opinais vosotros.?
Ahhh… El libro de Martin Gardner…. De lectura obligada, lo recomiendo.
Saludos.
Aclaración… A mi comentario anterior:
Me refería a que en los Diccionarios :
Ingles-Españól, Francés-Español, Alemán-Español, etc.
Se puedan incluir los carácteres fonéticos de pronunciación de la AFI o API, aunque solo fueran los de la pronunciación de origen Latino, inglés incluido.
¿Existe ya alguno.?
Y todo ello en un .docx que se puede o pueda convertir a formato .PDF para leerlos en los Lectores electrónicos actuales.
Los de 8″, como el Kobo Aura ONE, creo que son ya de un tamaño aceptable para ello.
Gracias.
Una parte importante de la filosofía Naukas, y en particular de este excelente blog, es enseñarte a que te enseñes tú mismo mediante internet y sus buscadores, pero para eso tienes que poner voluntad de tu parte, si no…
Fíjate que la mayor parte de tus preguntas se responden solas leyendo los links que te pasé. Por ejemplo, el último link da indicaciones claras del procedimiento más simple (e-mail), para cada OS dice cuáles son sus fuentes tipográficas Unicode que contienen el set completo (o parcial) de símbolos IPA, e incluso ofrece fuentes de terceros.
Para hacerla corta, SÍ, se puede… siempre y cuando todos los eslabones de la cadena (desde el procesador de texto inicial usado para escribir el diccionario hasta el lector electrónico final) cumplan estrictamente con el estándar Unicode + IPA.
Eso es así en el caso de Microsoft Word, su fuente predeterminada (Calibri) y su formato de documento (.docx) desde la versión 2007 en adelante. También lo es en el caso de LibreOffice. Y también lo es en el caso del formato PDF.
Además, tanto .docx como PDF admiten font embedding (opción «incrustar fuentes en el archivo»), así la(s) fuente(s) usada(s) en el documento se guarda(n) junto con (dentro del archivo de) el documento.
Eso evita el potencial problema de que el usuario final de ese documento no tenga instaladas en su sistema las fuentes indispensables (por ejemplo, con caracteres IPA) para visualizar el documento correctamente. Al abrir el documento, automáticamente se cargan las fuentes que éste incluye. Listo.
No sé si todos los lectores electrónicos son capaces de cargar fuentes incrustadas en documentos, ni me interesa, porque no los uso. Tampoco uso el formato .epub (me basta con saber que el freeware Sumatra PDF puede leer ese formato… si alguna vez lo necesito).
La verdad sea dicha yo ni siquiera uso Word, cuando necesito algo parecido uso Google Docs. Y cuando necesito algo más «pro» uso Scribus, que es como Adobe InDesign pero FREE y puede exportar a formato PDF perfectamente.
Saludos.
Esto es como el problema del petroleo, se suponía que la reservas de petroleo se tenían que haber agotado para el 2000 y aquí estamos con el petroleo a precios bajos, la tecnología del silicio no para de avanzar a pesar de la limitaciones teóricas, cuando se desarrolle algún tipo de maquina cuántica ahí veremos lo que es capaz de hacer, antes no. El sacar lo cuántico al mundo macro es algo impredecible y eso es lo que tiene que hacer una maquina cuántica.
Reneco, la idea de Cirac y otros físicos es que imagines un ordenador cuántico analógico, de propósito específico, que sirva para simular otros sistemas cuánticos de interés práctico. En esta aplicación los superordenadores actuales son inútiles y lo seguirán siendo por siglos (incluso si la ley de Moore sigue viva y coleando para entonces).
Francis, ¿podrías ampliar más sobre una aplicación práctica concreta que sea crucial hoy en día, en la que la computación clásica sea absurdamente ineficiente? Antes de preguntar he pensado en la factorización, pero no he visto referencia en este artículo. Como siempre, intensa y sombrosas ciencia que nos traes.
Yavi, ¿por qué Feynman dijo hace que algún día habría ordenadores cuánticos? Porque simular sistemas cuánticos con ordenadores clásicos es ineficiente. Simular fármacos, nuevos materiales, etc., a nivel cuántico es imposible en un superordenador clásico; poder hacerlo implicaría beneficios de billones de euros. Por supuesto, se pueden usar modelos cuasiclásicos, dinámica molecular, DFT y otras aproximaciones, pero siempre son aproximaciones burdas y sin la ayuda del experimento sus resultados son poco útiles.
Hola Francis, felicitaciones por tenernos siempre al tanto de las últimas novedades en todas las materias de la ciencia, a manera de off topic, sí pudieras comentarnos el otorgamiento del Premio Abel al Dr. Yves Meyer, creo que va sobre sus aportaciones a la teoría de las ondelettes,
Stalker, esta semana estoy bastante liado. Mi intención es hablar de Meyer y sus wavelets (para anglófonos) u ondículas (para francófonos) este fin de semana. Yo estudié un curso de doctorado sobre el tema hace décadas y he usado en mi trabajo la multirresolución en múltiples ocasiones.
Pues ya miraste que Google y D-Wave estan trabajando juntos?, solo digo
https://www.dwavesys.com/media-coverage/usra-first-quantum-annealing-computer-us-have-more-2000-qubits-installed-and