Elon Musk y cientos de expertos mundiales firmaron el miércoles un llamado para una pausa de seis meses en la investigación de inteligencias artificiales más poderosas que ChatGPT 4, el modelo OpenAI lanzado a mediados de marzo, citando "grandes riesgos para la humanidad".
En esta petición publicada en futureoflife.org, piden una moratoria hasta que se establezcan los sistemas de seguridad, incluidas nuevas autoridades reguladoras dedicadas, monitoreo de sistemas de IA, técnicas para ayudar a distinguir lo artificial real e instituciones capaces de manejar la “dramática situación económica y política”. perturbación (especialmente a la democracia) que la IA causará”. La petición reúne a figuras que ya han expresado públicamente sus temores de una IA fuera de control que superaría a los humanos, incluidos Elon Musk, propietario de Twitter y fundador de SpaceX y Tesla, y Yuval Noah Harari, autor de "Sapiens". .
Leer tambiénCómo la inteligencia artificial ha hecho que los humanos sean más creativos en el juego del go
El jefe de OpenAI, diseñador de ChatGPT, el propio Sam Altman admitió estar "un poco asustado" por su creación si se usaba para "desinformación a gran escala o ciberataques". "La sociedad necesita tiempo para adaptarse", dijo a ABCNews a mediados de marzo. «Ces derniers mois ont vu les laboratoires d'IA s'enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable», estiment -ellos.
“¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluidos los gratificantes? ¿Necesitamos desarrollar mentes no humanas que algún día sean más numerosas, más inteligentes, más obsoletas y nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no elegidos”, concluyen.
Los firmantes también incluyen al cofundador de Apple, Steve Wozniak, miembros del laboratorio DeepMind AI de Google, el jefe de Stability AI de OpenAI, Emad Mostaque, así como expertos en IA y académicos estadounidenses, ingenieros ejecutivos de Microsoft, un grupo aliado de OpenAI.