La inteligencia artificial (IA) ha llegado para quedarse, con todo lo bueno y lo malo que conlleva. Su adopción a nivel mundial continúa creciendo a un ritmo sin precedentes, hasta el punto de que algunos comparan su relevancia para nuestra evolución con la del descubrimiento del fuego y la energía nuclear. Y por eso los riesgos que entraña, en muy diversos ámbitos, son también importantes.
El británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la IA, se muestra especialmente crítico con el futuro que nos espera. Como vicepresidente de Ingeniería de Google fue uno de creadores del deep learning, una técnica especial que permite a las inteligencias artificiales aprender de su propia experiencia. Ahora, a sus 75 años, ha dejado la compañía para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías.
“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, ha expuesto en una entrevista a 'The New York Times'. Como si fuese un Oppenheimer arrepentido de haber creado la bomba atómica, Hinton lamenta haber dedicado su carrera a este ámbito: “Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho”.
El experto, galardonado el año pasado con el Premio Princesa de Asturias de Investigación Científica y Técnica, avisa sobre la excesiva velocidad a la que se están logrando avances como los del popular ChatGPT y el resto de apuestas de los gigantes tecnológicos. "Mire cómo era hace cinco años y cómo es ahora. Tome la diferencia y propáguela hacia adelante. Eso asusta", señala.
Su principal temor a corto plazo es que Internet se vea inundada de falsos textos, fotos y vÍdeos, y que los ciudadanos sean incapaces de distinguir lo que es real, pero también cree que estas tecnologías pueden reemplazar a muchos trabajadores y, más adelante, suponer incluso una amenaza para la humanidad. Por ello, aboga por frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA.
"La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían", explica. "Pero la mayoría de la gente pensaba que estaba muy lejos. Yo pensaba que estaba muy lejos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso", añade.
Hinton ha querido puntualizar después que su decisión de dejar Google no la ha motivado el poder criticar a la empresa, sino tener la libertad de hablar de los peligros de la inteligencia artificial sin tener que preocuparse del impacto que sus opiniones causarían en la compañía en la que trabaja, una empresa que reconoce que "ha actuado de forma muy responsable".