El Nobel a la Inteligencia Artificial
Juan Cristóbal Cruz Revueltas
15/10/2024
Mientras los debates sobre las virtudes y los peligros de la inteligencia artificial (IA) ocupan a influyentes académicos, medios de comunicación e instituciones, la semana pasada dos investigaciones relacionadas con la IA fueron galardonadas con el Premio Nobel. El premio de Física fue otorgado al físico John Hopfield, pero compartido con el científico computacional Geoffrey Hinton, uno de los pioneros en el desarrollo de las redes neuronales artificiales, tecnología esencial para el funcionamiento de Google y de ChatGPT. Además, la mitad del Premio Nobel de Química fue para Demis Hassabis y John Jumper, quienes emplearon la IA para estudiar la estructura de las proteínas. Jumper, a sus 39 años, recibió el premio por desarrollar el programa AlphaFold, perteneciente a Google DeepMind, fundado por Hassabis. En otras palabras, este es un gran reconocimiento para Google, ya que Hinton, conocido como el “padrino de la IA”, también trabajó para la empresa entre 2013 y 2023.
Sin embargo, no todos compartieron la alegría del premio. En particular, la decisión no fue bien recibida en algunos círculos de la física. Desde el anuncio, se comenta en broma que los físicos están tratando de entender qué tiene que ver con la física la investigación premiada por la Real Academia de las Ciencias de Suecia. En una sociedad cada vez más desconectada de la ciencia, este año no se ha reconocido a un físico por sus investigaciones. No obstante, también hay voces optimistas que consideran que el galardón abre el debate sobre los límites de disciplinas como la física y, en definitiva, invita a adoptar una perspectiva más interdisciplinaria entre las ciencias. Así, Matt Strassler, investigador en física de la Universidad de Harvard, entrevistado por el portal de la célebre revista Nature (10 de octubre de 2024), afirmó que se trata de un reconocimiento a un trabajo interdisciplinario que “une física, matemáticas, ciencias de la computación y neurociencias”. A este respecto, cuando Hinton fue entrevistado por el sitio web del Premio Nobel y se le preguntó si se considera un físico, respondió: “Soy alguien que no sabe en qué campo de investigación está”. De hecho, según The New York Times (How does it feel to Win a Nobel Prize? Ask the ‘Godfather of A.I.’, 8 de octubre de 2024), Hinton en alguna ocasión se describió como alguien que “fracasó en física, dejó la psicología y luego se unió a un campo de investigación sin estándares: el de la inteligencia artificial”. A pesar de todo, quizás Hinton tiene razón cuando sugiere que sería más claro si existiera un Premio Nobel para la ciencia de la computación. Seguramente en Estocolmo algunos estarán considerando su sugerencia.
¿Qué podemos concluir? Sin duda, la Real Academia de las Ciencias de Suecia ha otorgado un muy significativo reconocimiento a los avances que la IA ofrece. Y esto ocurre justo cuando, según defienden algunos, la IA comienza a aprovechar el conocimiento ya acumulado en la ciencia. Si esto es cierto, apenas estamos ante el inicio de una gran ola de avances. Pero esto no excluye la posibilidad de que este Nobel también sea una llamada de atención. El jurado era claramente consciente de ello cuando eligió a Hinton. Recordemos que el año pasado Hinton dejó su trabajo en Google, advirtiendo que las tecnologías derivadas de la IA podrían escapar de nuestro control y poner en peligro a la humanidad. En la entrevista realizada por el sitio web del Premio Nobel, le preguntaron al recién galardonado sobre sus temores respecto al desarrollo de la IA. Probablemente Hinton exagera, como le reprocha su reconocido colega Yann LeCun. Pero quizás Hinton tiene un punto a su favor: nadie sabe dónde estará el desarrollo de la IA en cinco, y mucho menos en veinte años.
Más allá del riesgo -poco probable al menos en el corto plazo, según LeCun- de una tecnología que escape de nuestro control, el hecho de que tres de los galardonados por la Real Academia de Ciencias en 2024 provengan de una misma empresa (Google) plantea interrogantes sociales, políticas y geopolíticas muy relevantes. Por ejemplo, el enorme riesgo de que la generación de conocimiento se concentre en unas pocas empresas. Son pocos los actores en el mundo que cuentan con la escala necesaria para movilizar los recursos que requiere la IA generativa (en particular, dinero y Big Data). Por otra parte, cuando vemos al hombre más rico del mundo y dueño de Neuralink y de Cortex (un supercluster de entrenamiento de IA) apoyar abiertamente la campaña de Trump, queda claro que uno de los principales motivos de las grandes empresas que concentran la investigación en IA es también la búsqueda de poder. La Real Academia Sueca de las Ciencias ha hecho bien en amplificar un muy importante debate.
X: @jccruzr