Ya está disponible el audio del podcast de Eureka, mi sección en La Rosa de los Vientos de Onda Cero. Como siempre, una transcripción, unos enlaces y algunas imágenes.
Esta semana se ha publicado en la revista Science un curioso estudio de científicos de la Universidad Johns Hopkins que afirma que el cáncer obedece en más ocasiones a la «mala suerte» del paciente que a la genética. ¿Qué quieren decir estos científicos con su afirmación? Bert Vogelstein, especialista en genética del cáncer de la Universidad Johns Hopkins en Baltimore, Maryland, EE.UU. y su estudiante de doctorado Cristian Tomasetti han realizado un estudio matemático de tipo bioestadístico para estudiar el origen de las mutaciones genéticas asociadas al cáncer en 31 órganos diferentes. Han comparado tres hipótesis. Un origen genético puro, mutaciones que provienen de las células madre que dieron lugar a dichos órganos; un origen epigenético puro, es decir, factores ambientales, como el tabaquismo o la exposición a radiación; y un origen aleatorio puro, las mutaciones al azar que se producen durante el proceso de división de las células. El estudio matemático concluye que este último origen, que podríamos llamar una «mala suerte» en la división celular es la causa matemáticamente más probable de muchos cánceres.
Por ejemplo, el cáncer colon es mucho más común que el cáncer de duodeno porque durante toda la vida de una persona hay cerca de un billón de divisiones de células madre en el colon, mientras que solo hay diez mil millones en el duodeno. Por supuesto, las conclusiones de este estudio publicado en Science han de ser tomadas con cierto cuidado. En algunos cánceres, como el cáncer de mama (el más frecuente entre mujeres) y el cáncer de próstata (el segundo más habitual en los hombres) la «mala suerte» no es factor determinante. Para un físico como yo la confianza estadística de este estudio es muy baja y sus conclusiones están cogidas con alfileres. El coeficiente estadístico de correlación que se ha alcanzado está entre el 61% y el 81%, siendo un estudio de 31 cánceres diferentes. En mi opinión hay cierto sesgo estadístico de confirmación cuando de una confianza estadística tan pobre se concluye que la mayoría de los cánceres tienen gran parte de su origen en la «mala suerte». Creo que este estudio de Science generarás muchas dudas y críticas entre los oncólogos. Los oyentes deben saber que el cáncer se puede prevenir y que una vida sana, que reduzca el contacto con agentes caarcinógenos, es la mejor acción para prevenir esta enfermedad.
Jennifer Couzin-Frankel, «The bad luck of cancer,» Science 347: 12, 2 Jan 2015; Cristian Tomasetti, Bert Vogelstein, «Variation in cancer risk among tissues can be explained by the number of stem cell divisions,» Science 347: 78-81, 2 Jan 2015.
El cerebro es el órgano más complicado de nuestro cuerpo. Genera la consciencia, nuestro «yo» interior, almacena los recuerdos, inventa y sueña. Un futuro cerebro artificial, similar al humano, pero sin sus errores, sin emociones, sin que se canse, tan potente como se necesite, sería la puerta a una nueva edad en la historia de la humanidad. ¿En qué estado se encuentra el desarrollo de máquinas pensantes que imitan el cerebro? Todavía estamos dando los primeros pasos. Los estudios neurocientíficos durante el último siglo han descubierto que la consciencia y la mente emergen del funcionamiento de las neuronas y de las conexiones sinápticas entre ellas. Sabemos muy bien cómo funciona una neurona individual, pero aún no entendemos como surge la mente. Por ello, uno de los enfoques en el campo de la inteligencia artificial es el desarrollo de ordenadores basados en neuronas artificiales. Circuitos electrónicos que simulan en detalle el funcionamiento de las neuronas. Los científicos defensores de la llamada «inteligencia artificial fuerte» proponen que la mente aparecerá de forma espontánea cuando desarrollemos un sistema neuromimético tan complicado como el encéfalo humano. No será fácil porque nuestro encéfalo contiene unos 86 000 millones de neuronas. Estas neuronas se conectan entre sí mediante sinapsis. En promedio, cada neurona recibe información a través de unas 10 000 sinapsis y envía información a unas 1 000 sinapsis. Hoy en día lo difícil es simular el funcionamiento de las sinapsis mediante microcircuitos electrónicos. Se ha publicado un gran avance en este sentido en la revista Physical Review Applied. Científicos de la Universidad de Harvard (EE.UU.) han desarrollado los primeros circuitos neuromiméticos que imitan fielmente el comportamiento de las sinapsis entre neuronas. Estos circuitos reproducen la capacidad de las sinapsis de reforzarse y debilitarse con el tiempo, de aprender, olvidar o almacenar recuerdos. Estos dispositivos microelectrónicos muestran una plasticidad similar a la de las neuronas y se pueden usar para estudiar cómo trabaja el encéfalo.
El artículo técnico es Sieu D. Ha, Jian Shi, Yasmine Meroz, L. Mahadevan, Shriram Ramanathan, «Neuromimetic Circuits with Synaptic Devices Based on Strongly Correlated Electron Systems,» Phys. Rev. Applied 2: 064003, 2014; arXiv:1411.4179 [cond-mat.str-el]. Más información divulgativa en Cátedra de Cultura Científica, «Crean un circuito que imita a las neuronas y aprende y desaprende,» Next, Vozpópuli, 16 Dic 2014; en inglés recomiendo Matteo Rini, «Synopsis: Mimicking the Brain,» Physics, 04 Dec 2014.
El encéfalo humano funciona gracias a unas cien billones de sinapsis. Lograr conectar billones de circuitos neuromiméticos requiere que su tamaño sea muy pequeño. ¿Cuál es el tamaño de los nuevas neuronas artificiales desarrolladas en la Universidad de Harvard? El objetivo de estos neurocientíficos ha sido imitar lo más fielmente posible el comportamiento de las sinapsis entre neuronas. Por ello el tamaño no ha sido un objetivo de diseño para estos primeros prototipos. Aunque están integrados en un chip mediante las técnicas microelectrónicas convencionales basadas en fotolitografía su tamaño es aún muy grande, unos diez milímetros cuadrados. Para diseñar circuitos y sistemas más complejos que exploten las características computacionales del encéfalo humano para resolver problemas prácticos será necesario reducir mucho su tamaño. Pero lograrlo no supone grandes retos tecnológicos. Me gustaría recordar que los primeros microordenadores a principios de los 1970 tenían procesadores con sólo unos miles de transistores. Hoy en día hay procesadores multinúcleo en el mercado con miles de millones de transistores. Reducir el tamaño de las nuevas neuronas artificiales desarrolladas por el grupo de investigación de la Universidad de Harvard dirigido por Shriram Ramanathan no parece difícil.
Para aprender una tarea de forma voluntaria tenemos que esforzarnos en repetirla una y otra vez, sea estudiar una lección o coordinar una serie de movimientos musculares. ¿Son capaces de simular este efecto los nuevos neurodispositivos? El efecto de la repetición es fundamental para anclar bien el aprendizaje en nuestra memoria. El gran avance neurocientífico de los nuevos dispositivos del equipo de Ramanathan ha sido lograr reproducir mediante circuitos electrónicos este efecto de la repetición. Las conexiones entre las neuronas reales, las sinapsis, se refuerzan con la repetición (recuerdos) y se debilitan con la falta de ella (olvidos). Esta característica fundamental, conocida de forma genérica como plasticidad, constituye la base del aprendizaje y la memoria. Los circuitos electrónicos convencionales no pueden reproducir la capacidad de las sinapsis de reforzarse y debilitarse con el tiempo dependiendo de la estimulación que reciban. Los nuevos dispositivos neuromiméticos que poseen una plasticidad análoga a la de las neuronas; sus diseños les permiten simular varios procesos neuronales que, macroscópicamente, interpretamos como aprendizaje, desaprendizaje y almacenamiento de recuerdos, tanto de neuronas inhibitorias como excitatorias. Por ejemplo, los investigadores han construido pequeños circuitos con varias neuronas artificiales capaces de aprender de forma asociativa como el perro en el famoso experimento de Pavlov sobre aprendizaje por condicionamiento. El perro asociaba el ruido de una campana con la hora de la comida y empezaba a salivar al oír la campana. Los nuevos circuitos, además de aprender asociaciones entre estímulos eléctricos acoplados, también son capaces de desaprender si los estímulos eléctricos que reciben dejan de estar acoplados. La capacidad de olvidar además de almacenar recuerdos es el gran avance logrado con estos nuevos dispositivos.
Las nuevas neuronas artificiales simulan el aprendizaje, desaprendizaje y almacenamiento de los recuerdos. ¿Cómo funcionan estos nuevos circuitos neuromiméticos? Los investigadores de la Universidad de Harvard han desarrollado un dispositivo microelectrónico con tres terminales, similar a un transistor. En los ordenadores actuales se usan transistores de tipo MOSFET que tienen tres terminales llamados fuente, drenador y puerta. Entre los terminales de fuente y drenador hay un canal por el que pasa corriente eléctrica cuya intensidad está controlada por una pequeña corriente que pasa entre los terminales de fuente y puerta. El tamaño del transistor se suele medir con la longitud del canal; los primeros transistores integrados a principios de los 1970 tenían un canal de unos diez micrómetros, que en los procesadores actuales se ha reducido a unos veinte nanómetros. El nuevo dispositivo neuromimético presenta un canal de dos milímetros de longitud fabricado a partir de niquelato de samario (SmNiO3). Los niquelatos de tierras raras, como el de samario, a diferencia de los semiconductores convencionales, tiene una resistividad que depende de la conductividad del medio con el que están en contacto. Gracias a ello se puede simular una sinapsis de una neurona estimulando eléctricamente este dispositivo para que cambie su resistividad y presente un efecto de tipo memoria que se puede reforzar o debilitar. Las conexiones entre neuronas tienen una intensidad llamada peso sináptico cuyos valores cambian durante el aprendizaje de una tarea. La resistividad del canal de niquelato de samario de los nuevos neurotransistores actúa como peso sináptico artificial. Por ahora sólo se pueden desarrollar pequeños circuitos con decenas de neurotransistores. En un futuro no muy lejano se reducirá mucho su tamaño y se logrará fabricar circuitos con millones y quizás miles de millones de estas neuronas artificiales. El verano pasado fue noticia un chip neuromórfico (o neuromimético) de IBM que implementaba 100 millones de neuronas y alcanzaba 256 millones de sinapsis, pero el funcionamiento de sus neuronas y sinapsis era mucho más sencillo que los desarrollados en la Universidad de Harvard. Con un diseño de neuronas más avanzado esta semana ha vuelto a ser noticia IBM que logrado implementar en un chip una red de 913 neuronas con 165 000 sinapsis. Los avances en el campo de la neuromimética son continuos y el futuro de esta tecnología en los próximos años promete ser apasionante.
Más información en Tom Simonite, «IBM Chip Processes Data Similar to the Way Your Brain Does. A chip that uses a million digital neurons and 256 million synapses may signal the beginning of a new era of more intelligent computers,» Technology Review, 7 Aug 2014; Tom Simonite, «New Form of Memory Could Advance Brain-Inspired Computers. A new kind of computer memory could help make more capable computer chips that function more like biological brains, say IBM researchers,» Technology Review, 30 Dec 2014.
Una pequeña corrección: en los transistores MOSFET la corriente del canal está controlada por la tensión entre fuente y puerta, no por la corriente. Entre el terminal de puerta y el sustrato hay un dieléctrico (generalmente óxido de silicio, de ahí la O de MOS), por lo que no puede circular ninguna corriente: son dispositivos de puerta aislada.
Mira Francisco,
acá argumentan que las transformaciones logarítmicas a los datos sólo podrían explicar el 18% y 28% respectivamente.
http://www.statschat.org.nz/2015/01/03/cancer-isnt-just-bad-luck/
Pero si dice:
There are two things to notice about this graph. First, there are labels such as “Lung (smokers)” and “Lung (non-smokers)”
Cuando en realidad en la gráfica sólo aparece “Lung (non-smokers)” precisamente para descartar el riesgo de cáncer asociado al tabaquismo, es decir, se considera el riesgo asociado al tejido pulmonar sano, intrínsecamente por la tasa de división celular de ese tejido.
Dos apuntes «breves»: El estudio del cáncer, aunque no he podido leer el artículo, me parece una simplificación tremenda de todo el proceso que da lugar al crecimiento tumoral por lo que sus conclusiones no pueden ser del todo correctas. Las mutaciones son muy probablemente aleatorias ,sin embargo, los sistemas de control del cuerpo para evitar el cáncer no lo son, tienen fuertes componentes genéticos. De hecho, para que el cáncer se desarrolle tiene que pasar todo esto:
1º) El tumor debe aprender a simular la señal que induce a la célula a empezar a dividirse (mitosis celular)
2º) Deben fallar los mecanismos de control del crecimiento celular. Estos mecanismos están formados por los oncogenes que regulan el crecimiento y los genes supresores que incitan a las células a suicidarse en caso de anomalías (apoptosis celular).
3º) Deben fallar diversos sistemas del sistema inmunológico que destruyen cualquier célula anómala o con características extrañas.
4º) El tumor debe ser capaz de volver a alargar los telómeros de los cromosomas de las células cancerígenas. A medida que las células se dividen los telómeros se van acortando, esto es un mecanismo ancestral para evitar los tumores. Para saltarse este mecanismo de control los tumores usan la enzima llamada telomerasa que repara los telómeros acortados.
5º) El tumor debe ser capaz de iniciar la angiogénesis, es decir, la fabricación se sus propios vasos sanguineos para poder sobrevivir y crecer.
6º) El tumor debe ser capaz de alimentarse del tejido circundante y de iniciar la metástasis, es decir, de expandirse a otras zonas del cuerpo.
Sobre los estudios de simulación del cerebro humano la simplificación es todavía mucho más grande. No creo que ningún experto serio piense que simplemente simulando la interacción entre un grupo de miles o millones de neuronas va a surgir la conciencia y la inteligencia humana. Un cerebro humano aislado no hace nada, el pensamiento surge de una interacción continua entre el cerebro en crecimiento y los estímulos exteriores. Se sabe que durante la gestación las células neuronales se empiezan a dividir exponencialmente y luego los estímulos en el embrión y durante los primeros años de vida hacen una «criba» reforzando las conexiones que se usan y eliminando las que no. Además falta un «ingrediente» clave que señalan los nuevos estudios en este campo (precisamente estoy acabando un post sobre esto quien esté interesado podrá leerlo en un par de dias en mi blog). Luego están los «problemillas técnicos»: la potencia de cálculo es aún baja, la disipación de calor demasiado alta, la factura de la luz astonómica, etc ,etc.
Es una buena observación la que haces, pero creo que precisamente las mutaciones aleatorias son una explicación satisfactoria. Todas las etapas que planteas se pueden sortear siempre que ocurra la mutación «adecuada» que supere todas esas barreras y, claro, a mayor número de eventos aleatorios, mayor probabilidad de que alguno dé (por desgracia) en el clavo.
Eso no quiere decir que no haya multitud de otros factores que intervienen en la oncogénesis y son de gran importancia, pero esto podría explicar un número de cánceres a los que no encontramos una asociación clara con variables genéticas o ambientales. Y, por supuesto, otro factor fundamental que citas, que es el sistema inmunológico, cuyo papel aún no comprendemos bien.
Muy de acuerdo con Planck en general. Creo que los artículos científicos que se citan son aportaciones importantes en ambos campos de trabajo. Pero si bien los resultados ya están en los artículos así como la discusión de los autores, la misión del divulgador debería ser más en un contexto general explicar cuánto de verdad aporta y cuánto se puede esperar. Y no potenciar de forma «inflada» lo que «se puede esperar» porque entonces se crea confusión. Así expone muy bien Planck el contexto en el que habría que enmarcar los resultados de este estupendo artículo sobre cáncer. Eso sería mucho más útil a nivel de divulgación.
En la cuestión del los materiales neuromiméticos, hay que tener en cuenta que «desaprender» o bien «olvidar» en humanos no es algo activo, no se olvida queriendo, y no se puede forzar «desaprender», por ejemplo, a montar en bicicleta por muchos años que no se utilice. ¿Entonces?. Pues entonces los científicos de este campo de inteligencia artificial ahora tienen que lidiar con el problema de que si todo lo que se pretenda mantener largo tiempo en la memoria deberá estar reforzándose cada «2 x 3» (es la forma coloquial de decir con mucha frecuencia), o bien de otra forma el material neuromimético entenderá que esa vía no hay que reforzarla y se eliminará.
Respecto a la idea de que el uso repetido de una sinapsis artificial como la que se describe actúe sobre la conductividad, es un puente sobre lo que en realidad hace nuestro sistema nervioso, en el que la mayoría de sinapsis se pueden reforzar o debilitar por su activación repetida o su inactivación, pero la conductividad está en gran medida regulada por otros componentes del sistema, los neuromoduladores (que no necesariamente o no en todos los contextos son neurotransmisores). Este componente neuromodulador ya estaba presente en el modelo condicionante de Paulov, pero se obvia… y es que es estímulo condicionante desencadena una doble respuesta en el encéfalo por un lado que será sensorialmente asociada al estímulo condicionador, pero también una señal neuromoduladora que modificará de inmediato la eficiencia sináptica. Por tanto, el reto de manejar las sinapsis artificiales todavía dará lata.
Respecto al comentario de Francis sobre que el diseño puede simular los mismos procesos sobre neuronas excitadoras e inhibidoras, pues… otra cosa a poner en su debido contexto, ya que funcionan de manera muy diferente, en tasa de disparo, en propiedades de potenciación y depresión sináptica. Ah! y hablando de potenciación sináptica y depresión sináptica, cómo solventa este modelo neuromimético el hecho de que existan sinapsis excitadoras que ante un tren de estímulos de alta frecuencia aumentan su eficiencia (potenciación sináptica) y otras que ante el mismo tren de estímulos muestran una reducción de su eficiencia (depresión sináptica).
El artículo es de gran calidad, claro, pero hay que contarlo en su sitio…si no parecerá lo que no es.
Salud y ánimo.
PD: Francis, utilizas indistintamente cerebro y encéfalo, en general se entiende que te refieres a lo mismo… pero un purista te podría decir que eso está mal. Y si no te refieres a lo mismo cuando utilizas las dos palabras, la cosa es más confusa.
Disculpad si mi pregunta no es muy allá.
Las simulación de una neurona o un montón de ellas interaccionando, no se puede hacer de modo virtual con procesadores normales? aunque séan muchas menos? realmente se necesita un hardware que actúe como las neuronas?
Joan, por supuesto que sí, pero cuando hablamos de miles de millones de neuronas y billones de sinapsis el coste computacional es demasiado alto. La implementación hardware es la única opción. Por eso hay mucho interés en el desarrollo de neuronas artificiales.
Francis, no se qué coeficiente de correlación han usado, pero basta mirar la gráfica de la segunda figura para ver que existe una correlación positiva entre Lifetime Risk y Total stem cell divisions. Creo que es casi imposible que en biología te salga una correlación del 99 %, siempre será mucho menor pero suficiente para dar por buena la hipótesis (admito que puedo estar equivocado). En cuanto al comentario de Plank, todo lo que dice sobre los pasos de los tumores está muy bien pero no tiene que ver con el artículo, donde sólo se mide la relación entre el riesgo de cáncer y el tipo de tejido. Los tejidos con una mayor tasa de renovación celular deberían tener mayor riesgo de desarrollar tumores, y eso es lo que se demuestra. Creo que lo de «mala suerte» está muy mal dicho por parte de los autores. En realidad esa mayor probabilidad de desarrollar cáncer en un tejido sería una consecuencia lógica de la biología celular.
En cuanto al tema apasionante de las neuronas artificiales, creo que deberían inspirarse en la evolución, preguntarse qué hizo que se desarrollase el cerebro, para qué empezó a utilizarse … Una pista: los órganos de los sentidos.
Lo que quería decir es que el título del artículo es engañoso ya que parece transmitir a la población el mensaje de que el cáncer es solamente una cuestión de azar y esto es un error muy grave. Es cierto que no he leído el artículo y no conozco los detalles, además parece que lo que dicen es que unos 2/3 de los cánceres podrían tener un origen aleatorio. Es cierto que el azar, como en todas las facetas de la vida juega un papel muy importante, sin embargo, los factores genéticos (y probablemente epigenéticos) son también muy importantes, por ejemplo ciertas personas con variedades de oncogenes o genes supresores pueden tener más riesgo que otras precisamente porque una variedad heterocigótica es más sensible a una mutación aleatoria que otra homocigótica (basta con que mute solo el alelo que realiza la función protectora) además el funcionamiento del sistema inmunológico puede variar en función de la genética de las personas.
Respecto al tema de las neuronas estoy de acuerdo contigo: la evolución es un factor muy importante. Debería hacerse un esfuerzo conjunto entre biólogos, neurocientíficos, ingenieros, científicos evolutivos, matemáticos, físicos, expertos en IA y psicólogos (y si hace falta llamamos también al pequeño Nicolás :D)
La predisposición genética a padecer ciertos tipos de cáncer, así como los factores ambientales, hacen que la correlación del estudio no sea del 100%. Pero tampoco la correlación entre tabaquismo y cáncer de pulmón es del 100%, ya que no todos los fumadores desarrollan cáncer de pulmón, ni todos los no fumadores no lo desarrollan, y sin embargo sabemos que sí hay una correlación positiva entre tabaquismo y cáncer de pulmón. Por tanto la correlación entre tipo de tejido y riesgo de cáncer es el resultado de la suma de todos los factores: genéticos, epigenéticos, ambientales, y lo que nos queda es el riesgo en sí mismo debido a la mera proliferación celular de un tejido. Hay que tener en cuenta que la mitosis es un proceso increíblemente complejo, son tantas las cosas que tienen que salir bien, todo lo que tiene que ocurrir exactamente de una manera concreta y precisa a nivel molecular, que lo raro es que no haya continuamente tumores en los animales pluricelulares (de hecho los hay pero son suprimidos por el sistema inmune, que igualmente es increíblemente complejo…). Hay un libro muy interesante sobre eso: Cáncer, el legado evolutivo de Mel Greaves.
http://ilevolucionista.blogspot.com.es/2008/08/cncer-el-legado-evolutivo-entrevista.html
the critical properties of cancer cells: mutability, migration, territorial invasion, selfish cloning and immortality are intrinsic properties of cells positively selected by evolution. The surprise is indeed that we don’t all have multiple cancers. Of course evolution has also imposed hefty restraints on expression of these dangerous properties, particularly in long-lived, complex organisms such as us, but these too are imperfect controls. How could it be otherwise?
El azar o «mala suerte» al que se refieren los autores se refiere a que cuantas más divisones celulares ocurran a lo largo de la vida en un tejido más papeletas hay para que aparezca un tumor, papeletas de la mala suerte.
Daniel, en física le llamamos «look elsewhere effect». Si tienes tres variables tipo cara/cruz asociadas a 31 datos, con gran probabilidad encontrarás que para la mayoría de los datos una de ellas es preferentemente sí y las otras dos preferentemente no. Pura estadística. Sin relación causa/efecto subyacente.
_ Gracias a ello se puede simular una sinapsis de una neurona estimulando eléctricamente este dispositivo para que cambie su resistividad y presente un efecto de tipo memoria que se puede reforzar o debilitar_
¿Un memristor ?
Horacio, los memristores se pueden usar para simular neuronas artificiales con este tipo de efecto memoria, pero en el caso concreto presentado en esta entrada no se trata de un memristor.