Post a Comment Print Share on Facebook

Elon Musk y cientos de expertos piden una pausa en la IA, citando "grandes riesgos para la humanidad"

Elon Musk y cientos de expertos mundiales firmaron el miércoles un llamado para una pausa de seis meses en la investigación de inteligencias artificiales más poderosas que ChatGPT 4, el modelo OpenAI lanzado a mediados de marzo, citando "grandes riesgos para la humanidad".

- 4 reads.

Elon Musk y cientos de expertos piden una pausa en la IA, citando "grandes riesgos para la humanidad"

Elon Musk y cientos de expertos mundiales firmaron el miércoles un llamado para una pausa de seis meses en la investigación de inteligencias artificiales más poderosas que ChatGPT 4, el modelo OpenAI lanzado a mediados de marzo, citando "grandes riesgos para la humanidad".

En esta petición publicada en futureoflife.org, piden una moratoria hasta que se establezcan los sistemas de seguridad, incluidas nuevas autoridades reguladoras dedicadas, monitoreo de sistemas de IA, técnicas para ayudar a distinguir lo artificial real e instituciones capaces de manejar la “dramática situación económica y política”. perturbación (especialmente a la democracia) que la IA causará”. La petición reúne a figuras que ya han expresado públicamente sus temores de una IA fuera de control que superaría a los humanos, incluidos Elon Musk, propietario de Twitter y fundador de SpaceX y Tesla, y Yuval Noah Harari, autor de "Sapiens". .

Leer tambiénCómo la inteligencia artificial ha hecho que los humanos sean más creativos en el juego del go

El jefe de OpenAI, diseñador de ChatGPT, el propio Sam Altman admitió estar "un poco asustado" por su creación si se usaba para "desinformación a gran escala o ciberataques". "La sociedad necesita tiempo para adaptarse", dijo a ABCNews a mediados de marzo. «Ces derniers mois ont vu les laboratoires d'IA s'enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable», estiment -ellos.

“¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluidos los gratificantes? ¿Necesitamos desarrollar mentes no humanas que algún día sean más numerosas, más inteligentes, más obsoletas y nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no elegidos”, concluyen.

Los firmantes también incluyen al cofundador de Apple, Steve Wozniak, miembros del laboratorio DeepMind AI de Google, el jefe de Stability AI de OpenAI, Emad Mostaque, así como expertos en IA y académicos estadounidenses, ingenieros ejecutivos de Microsoft, un grupo aliado de OpenAI.

Avatar
Your Name
Post a Comment
Characters Left:
Your comment has been forwarded to the administrator for approval.×
Warning! Will constitute a criminal offense, illegal, threatening, offensive, insulting and swearing, derogatory, defamatory, vulgar, pornographic, indecent, personality rights, damaging or similar nature in the nature of all kinds of financial content, legal, criminal and administrative responsibility for the content of the sender member / members are belong.