Los sorprendentes avances que en los últimos meses ha experimentado la inteligencia artificial, que cada vez nos acerca más a un hipotético Skynet como el que se rebelaba contra la humanidad en 'Terminator', han hecho saltar las alarmas entre los investigadores tecnológicos. Más de 1.000 expertos, a los que se han sumado voces autorizadas como las del dueño de Tesla o SpaceX, Elon Musk, el fundador de Apple, Steve Wozniak, o el historiador Yuval Noah Harari, han firmado una carta abierta en la que instan a pausar la implementación de las nuevas inteligencias artificiales durante seis meses con el objetivo de frenar lo que han denominado "una peligrosa carrera que está llevando al desarrollo de modelos más impredecibles y con capacidades cada vez mayores".
"La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes", indica la misiva, impulsada por Future of Life Institute, una organización sin ánimo de lucro creada para vigilar la forma en la que se desarrolla la tecnología. "Lamentablemente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable."
“Por esto, hacemos un llamamiento dirigido a todos los laboratorios de inteligencia artificial para que pausen de forma inmediata los desarrollos más potentes que GPT-4 durante al menos seis meses. Esta pausa deberá ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no llega rápidamente, los Gobiernos deberían dar un paso al frente e imponerla”, escriben.
En los últimos meses, organizaciones como OpenAI con su célebre Chat GPT han demostrado las capacidades potenciales de la IA, arrastrando a las grandes tecnológicas, principalmente Alphabet, Baidu, Meta y Microsoft, a una carrera sin control en un mercado radicalmente competitivo y con nula regulación. Los expertos puntualizan que no están pidiendo que se deje de investigar la IA, sino que se haga de otra manera distinta a la actual forma que se está siguiendo: “Los laboratorios de inteligencia artificial y los expertos independientes deberían aprovechar la pausa para desarrollar e implementar de forma conjunta una serie de protocolos de seguridad para los diseños más avanzados que sean auditados y asegurados por expertos independientes”.
La Unión Europea ya está preparando una regulación sobre la inteligencia artificial, conocida como la Artificial Intelligence Act, basado en un sistema de escalas de riesgos. En el bajo estarían por ejemplo las IAs de videojuegos, que podrían funcionar con muy pocas exigencias regulatorias. Y en el lado contrario estarían las IAs "de riesgo inaceptable", como los sistemas de puntuación social o los de identificación biométrica en tiempo real en espacios públicos, que estarían prohibidos.
Entre medías estarían los sistemas de “alto riesgo”, que sí están permitidos, aunque los creadores deberán cumplir con unas regulaciones que exigirán someterse a una vigilancia “rigurosa”. Ahí se incluyen los vehículos autónomos, dispositivos médicos o maquinaria de infraestructuras críticas. La legislación se encuentra en fase de debate dentro del Parlamento Europeo.