La IA es la estrella
Las ciencias que un día nos proveyeron de grandes descubrimientos e inventos, quedan relegadas a desempeñar el papel de técnicas de laboratorio que se dedican a ajustar las 'ruedecillas de los superordenadores'
Hace unos días se celebraron en Gijón las 'Jornadas futuro y tecnología 2024', que versaron sobre la Inteligencia Artificial (IA). Los interesantes temas tratados, con ... sus posteriores coloquios, me conducen a pensar que la IA es el tema estrella en todo lo referente a las investigaciones, tanto tecnológicas como científicas. Tanto es así, que la Real Academia de Ciencias de Suecia premió con el Nobel de Física a John Hopfield y Geoffrey Hinton por sus investigaciones sobre las redes neuronales artificiales. Se utilizan en el aprendizaje de máquinas ('machine learning' en inglés) y contribuyen al desarrollo de las Inteligencias Artificiales (IAs). Los galardonados usaron conocimientos de física en sus inventos. El físico estadounidense Hopfield utilizó la parte de la mecánica cuántica, que describe «las características que tiene un material debidas al 'spin' que le dota de cierta propiedad y convierte a cada átomo en un pequeño imán». Según los expertos, «el entrenamiento de la máquina se basa en encontrar valores para las conexiones entre los distintos nodos, de modo que las imágenes guardadas tengan baja energía. Cuando el sistema recibe una imagen distorsionada o incompleta, trabaja metódicamente a través de los nodos y actualiza sus valores. La red trabaja paso a paso para encontrar la imagen guardada que se parezca más a la imagen imperfecta con la que se la alimentó». Por su parte, el científico computacional y psicólogo cognitivo británico Geoffrey Hinton en 1972 acuñó el concepto de 'red neuronal' y recibió en 2018 el Premio Turing (premio que se considera como el equivalente a un Nobel en Ciencias de la Computación) junto a dos investigadores, por sus trabajos en lo que se denomina 'aprendizaje profundo'. Hinton, basándose en la red de Hopfield, inventó un método que se apoya en la física estadística denominado 'máquina de Boltzmann', que permite al autómata «encontrar propiedades en los datos de forma autónoma y, por lo tanto, realizar tareas como identificar patrones específicos en imágenes».
Así las cosas, aunque nadie haya restado reconocimiento a estas importantes contribuciones para el desarrollo de las IAs y sean dignas de un Nobel, hay expertos que cuestionan que lo desarrollado por ellos pertenezca al campo de la física, aunque se basen e inspiren en conocimientos de esta ciencia, porque sus investigaciones no tratan de una nueva teoría o la resolución de problemas históricos de esta disciplina. Incluso eminentes físicos comentaron que «la ausencia de un nobel en matemáticas o ciencias computacionales ha distorsionado los resultados. Y sería más apropiado que existieran categorías para reconocer directamente los avances en ciencias computacionales».
Esta polémica me conduce a recordar que en los Premios Princesa de Asturias de 2020 de Investigación Científica y Técnica ocurrió algo parecido a lo acaecido con este Nobel de Física 2024. En aquel entonces concedieron el premio de investigación científica a los matemáticos Yves Meyer, Terence Tao, Emmanuel Candés y a la física y matemática Ingrid Dauvechies (esta última estuvo recientemente en Asturias en el marco de la Semana de los Premios Princesa), por sus contribuciones mediante técnicas de matemática aplicada para poder comprimir imágenes en JPEG, y la posibilidad de analizar radiografías y otras pruebas diagnósticas médicas que permiten visualizar lo que el ojo no ve. Si bien tampoco pongo en duda lo apropiado de dicho premio, sí podemos decir que en este caso, al igual que ha ocurrido con el Nobel de Física 2024, se puede inferir que los matemáticos premiados se han metamorfoseado en científicos de análisis de datos y en consecuencia, sus investigaciones también están enmarcadas dentro del mercadeo tecnológico.
A la luz de estos premios y otros de la misma índole, podemos concluir dos cosas: la primera es que lo que se promueve y valora últimamente son las investigaciones que tengan que ver con las IAs, las imágenes, el procesamiento del lenguaje, software de juegos, los pringosos algoritmos, etcétera. En definitiva, investigaciones útiles para el mundo tecnocrático. Por el contrario, las ciencias que un día nos proveyeron de grandes descubrimientos e inventos quedan relegadas a desempeñar el papel de técnicas de laboratorio que se dedican a ajustar las 'ruedecillas de los superordenadores' y la investigación básica pasa a un segundo plano o se abandona. Es como si ya se hubiese descubierto todo lo que tiene que ver con la física. De tal manera que tras las leyes de Newton, la relatividad de Einstein y el espectacular desarrollo de la mecánica cuántica, lo único que le queda a la física fuese el reajuste de las teorías ante nuevos hechos, rellenar algunos huecos, añadir detalles a las teorías vigentes y ponerlas a prueba mediante tecnologías supercaras, como por ejemplo el colisionador de hadrones. Nos advertía Norbert Wiener matemático y filósofo, creador de la cibernética a mediados del siglo pasado, sobre el advenimiento de la denominada 'ciencia de la pasta gansa'.
Y la segunda: como no hay nobel de matemáticas, ni de ciencias computacionales y los premios de la academia tienen que competir con las grandes empresas tecnológicas en la investigación científica, esto da lugar a la distorsión y a veces a lo inapropiado de los premios que se conceden. Pero lo más triste y preocupante es que estos desatinos conducen a un detrimento de la investigación científica. Tal y como van las concesiones de estos premios, un Richard Feynman o un Einstein no habrían alcanzado el nobel, salvo, claro está, que se hubiesen reciclado y sus teorías contribuyesen al análisis de datos (bromeo).
¿Tienes una suscripción? Inicia sesión