La polémica sobre las máquinas de aprendizaje extremo de Huang

Por Francisco R. Villatoro, el 1 abril, 2018. Categoría(s): Ciencia • Peer Review (Revisión por pares) • Prensa rosa • Science ✎ 8

Dibujo20180327 elms rbfs doi 10 1109 TNN 2006 875977

Josep Lluís Rossello, @Josep1973, me preguntó: «Me gustaría saber tu opinión respecto a la polémica de las Extreme Learning Machines. A ver si un día puedes dedicarle un post«. Como decía Lennart Stenflo en Nature, «el plagio inteligente es el más peligroso». Y el más astuto es el cambio a un nombre más sensacionalista, junto a la amnesia de las fuentes originales. En mi opinión, Guang-Bin Huang y su ejército de Huang-sianos, igual que Ji-Huan He y el suyo de los He-sianos, a pesar de haberse alzado al pedestal de los highly cited authors del ISI de Thompson Reuters, serán olvidados bajo la alfombra de la ciencia china. Por supuesto, me dirás, Francis, ¡¿y tú qué sabes?! Lo sé, lo sé, yo no sé nada.

La primera vez que, en una conferencia científica, me hablaron de las máquinas de aprendizaje extremo (ELMs) pregunté con interés, ¿qué son exactamente? Cuando me lo explicaron, volví a inquirir, ¿y cuál es la diferencia? No me la supieron explicar. Tampoco le di importancia, quizás eran inexpertos. Tras estudiar el asunto concluí que no hay diferencia que merezca un nuevo nombre. Por cierto, las ELMs son redes de neuronas artificiales con una sola capa oculta, conectada con pesos aleatorios a la capa de entrada y en la que solo se entrenan los pesos que la conectan con la capa de salida mediante un algoritmo de mínimos cuadrados. O sea, la idea de Rosenblatt en 1961 aplicada a su perceptrón de 1958, que Minsky y Papert rebautizaron en su libro de 1969 como perceptrón Gamba. Pero, claro, el nombre máquinas de aprendizaje extremo suena mucho más chic que perceptrón Gamba. Máxime tras la mala fama que adquirió el perceptrón en la década de los 1970.

Muchos problemas de clasificación de datos son tan sencillos que una red de neuronas artificiales simple en extremo funciona a las mil maravillas. Más aún, su funcionamiento trivial es muy eficiente. Pero, por supuesto, suena mucho mejor decir que se usa una máquina de aprendizaje extremo. Hoy tan de moda, las técnicas de aprendizaje profundo son mucho más poderosas ante problemas complicados. Pero los huang-sianos saben que cada técnica tiene su propio nicho y lo mejor es evitar competir entre sí. Soy consciente de que para muchos chinos publicar en revistas como IEEE Transactions on Neural Networks ha sido mucho más fácil tras los trabajos de Huang y sus huang-sianos, pues ellos acabarán siendo los revisores de todo artículo sobre ELMs, y ellos acabarán aceptando dichos trabajos si cumplen con las reglas huang-sianas. Sin embargo, hay algo que no me gusta de quienes idolatran a Huang, su manía de buscar prosélitos y acólitos por doquier.

Todos los huang-sianos citan como su biblia el artículo de Guang-Bin Huang, Qin-Yu Zhu, Chee-Kheong Siew, «Extreme learning machine: Theory and applications,» Neurocomputing 70: 489-501 (2006), doi: 10.1016/j.neucom.2005.12.126; muchos olvidan que todo nació con Guang-Bin Huang, Qin-Yu Zhu, Chee-Kheong Siew, «Extreme learning machine: a new learning scheme of feedforward neural networks,» Proceedings of the 2004 IEEE International Joint Conference on Neural Networks (2004), doi: 10.1109/IJCNN.2004.1380068. Bueno, en realidad muchos prefieren citar fuentes más recientes como Guang-Bin Huang, Dian Hui Wang, Yuan Lan, «Extreme learning machines: a survey,» International Journal of Machine Learning and Cybernetics 2: 107-122 (2011), doi: 10.1007/s13042-011-0019-y, y Guang-Bin Huang, Hongming Zhou, …, Rui Zhang, «Extreme Learning Machine for Regression and Multiclass Classification,» IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics) 42: 513-529 (2012), doi: 10.1109/TSMCB.2011.2168604.

Por supuesto, Huang ha recibido gran número de críticas, el llamado escándalo de las ELMs. La respuesta de Huang a las primeras críticas a amnesia acompañada de un cambio de nombre apareció en Guang-Bin Huang, Lei Chen, Chee-Kheong Siew, «Universal Approximation Using Incremental Constructive Feedforward Networks With Random Hidden Nodes,» IEEE Transactions on Neural Networks 17: 879-892 (2006), doi: 10.1109/TNN.2006.875977. Muy citado por quienes le critican, suele ser omitido por quienes le adoran.

Dibujo20180327 guang-bin huang google scholar

Permíteme una versión libre de la historia. En 2004 un joven investigador chino decidió cambiar de nombre cierto tipo de redes de neuronas artificiales que aparecían en casi todos los libros de texto. Había trabajado en ellas desde 1998, pero tenían un nombre con poco glamour. Ni corto ni perezoso Huang decidió rebautizarlas como máquinas de aprendizaje extremo. ¡¿Quién iba a aceptar un cambio de nombre así?! No se sabe si con intención expresa, o sin ella, para que el término fuera aceptado como algo novedoso, decidió omitir las oportunas citas a los abuelos de la idea, cuarenta años son muchos años y a veces es mejor olvidar. En realidad no pasaba nada porque sus primeros artículos se publicaron en conferencias científicas con una revisión por pares laxa. Así nació la leyenda de Huang. Así nació el núcleo de la bola de nieve.

Sus siguientes artículos sobre ELMs estaban decorados con autocitas, como si fueran algo tan nuevo que la única fuente citable fueran sus propios trabajos. Para el neófito se trataba de un trabajo original, más aún, fácil de repetir, por su gran simplicidad, y con un nombre tan atractivo… Un revolucionario trabajo de marketing científico que bien podría haber fracasado, pero que acabó siendo todo un éxito. Cuando publicar en revistas internacionales era algo reservado a pocos científicos chinos, los que destacaban eran seguidos por toda un cohorte de prosélitos. Ejércitos de chinos se subieron al tren de las ELMs. Y la bola de nieve fue creciendo y creciendo. Hasta el punto de que la conexión entre las ELMs y el perceptrón Gamba cayó en el pozo de los recuerdos olvidados para siempre.

Como no podía ser de otra manera, llegó el día en el que Huang coló un artículo sobre sus ELMs en una revista de prestigio; y luego otro, y otro. Las puertas de estas revistas se abrieron a sus prosélitos de par en par. Muchas revistas que publicaban trabajos en los que se usaban redes de neuronas artificiales en la década de los 1980 ahora eran reacias a publicarlos en los 2000; sin embargo, los artículos que usaban ELMs parecían relucir con luz propia y eran aceptados sin problemas. Más aún cuando entre los pares revisores de dichos artículos siempre había algunos prosélitos de Huang; así los artículos eran aceptados como algo novedoso y de gran interés para la comunidad (aunque solo lo fueran para los propios huang-sianos). La bola de nieve creció y creció hasta que llegó a encumbrar a Huang en el pedestal de los highly cited authors del ISI de Thompson Reuters.

Por supuesto, las voces críticas empezaron a aparecer entre los expertos en redes de neuronas artificiales cuando Huang mezcló las ELMs con las RBFs (redes de neuronas artificiales con función de base radial) para crear las ELM-RBFs. Esos científicos, esos demonios, que atacaron a Huang, que le acusaron de fraude científico, de mala ciencia… Y solo porque olvidó citar a quienes trabajando en RBFs habían redescubierto a finales de los 1980 lo que ahora se llamaba ELM-RBFs. La bola de nieve era tan grande que el ejército de prosélitos de Huang defendió a su señor con todas sus fuerzas. Las voces de los demonios fueron acalladas en muchos foros. Si las ELMs y las ELM-RBFs funcionan tan bien, ¿qué más da cómo se llamen? Si un artículo reinventa la rueda, ¿no merece ser publicado cuando la rueda es algo tan útil como la rueda?

Hoy en día la comunidad está dividida. Por un lado, quienes consideran que las ELMs y las ELM-RBFs son uno de los grandes avances en redes de neuronas artificiales en las últimas décadas; quienes consideran a Huang un científico honesto como el que más; quienes tras miles de artículos sobre ELMs consideran que ser huang-siano es todo un honor. Y por otro lado, quienes consideran que las ELMs son una moda pasajera que acabará en el cajón de los recuerdos arrasada por el aprendizaje profundo; para ellos Huang ya ha disfrutado de sus minutos de gloria, con miles de artículos que le citan, pero no es un prohombre que vaya a pasar a la historia de la ciencia de China, la gran potencia científica del siglo XXI.

Y tú me dirás, Francis, ¿y tú quién eres para criticar a Huang? Como mínimo hay que tener tantas citas como él. Francis, ¿tú las tienes? Lo confieso, no, no las tengo. Pues cállate y corre con el rabo entre las piernas… Francis, ¡qué mula eres a veces!



8 Comentarios

  1. Lo de las ELM es un timo, y no el único en la comunidad científica internacional relacionado con machine learning. Un timo con la necesaria masa crítica que le ha hecho tener impacto, pero es penoso.

    Gracias por este artículo.

    Por privado te puedo pasar mi lista de timos. Y si te animas publicas alguno más 😉

      1. A ti por poner a caldo a todos los que se lo merecen. Tendrían que hacerte funcionario de la verdad (no es sarcasmo).
        Enhorabuena por tu trabajo.

  2. » Como mínimo hay que tener tantas citas como él»; pues obviamente al que dijera eso, es tonto de remate; hay miles de hechos, como el caso que nos ocupa, cuyas evidencias son asequibles a cualquiera con interés, sin necesidad, incluso, de titulación científica; de lo contrario no existiría el periodista especializado en ciencia.

    Me pregunto si en la cultura china no estará tan mal visto ciertos actos que consideramos muy deshonestos en otros lugares; había oído hablar, por ejemplo, que en los negocios es práctica habitual intentar engañar con temas como el precio o los beneficios, y se ve como una práctica legítima.

  3. El caso es que las redes ELM o perceptrones Gamba son simples y funcionan. Durante décadas se entrenó a las redes perceptron utilizando backpropagation (propagación hacia atrás), que es un algoritmo pesado y engorroso (iterativo, tarda mucho tiempo y depende de parámetros) y luego se ha visto que no era necesario, que simplemente poniendo valores aleatorios esas redes funcionaban igual o mejor. ¿Qué importancia tiene el nombre que se le dé? Como mínimo hay que reconocerle a Huang la popularización de esas redes.

  4. Me alegra que llegue esto al castellano. Detrás de esta mala praxis, como casi siempre, la evaluación al peso de los CV académicos. Sistema por antonomasia en España.
    La web http://elmorigin.wixsite.com/originofelm contiene información más detallada con artículos concretos analizados y propone llamar a contribuciones reales en esta línea variaciones de «randomized neural network (RNN)».

Deja un comentario