Post a Comment Print Share on Facebook

¿Podemos realmente pausar la inteligencia artificial, como pide Elon Musk?

Laetitia Pouliquen, directora del think-tank NBIC Ética y coautora de la Carta Abierta a la Comisión Europea sobre Robótica e IA firmada por 285 expertos europeos, denunciando la creación de una personalidad jurídica específica para los robots autónomos.

- 15 reads.

¿Podemos realmente pausar la inteligencia artificial, como pide Elon Musk?

Laetitia Pouliquen, directora del think-tank NBIC Ética y coautora de la Carta Abierta a la Comisión Europea sobre Robótica e IA firmada por 285 expertos europeos, denunciando la creación de una personalidad jurídica específica para los robots autónomos.

La carta abierta "Suspender las IA más poderosas que ChatGPT", firmada por miles de expertos, incluidos los líderes de Tesla, Apple, DeepMind, el laboratorio de IA de Google, o Yuval Noah Harari, autor de Homo Deus, publicada ayer, 29 de marzo de 2023; El mismo día, un belga que sufre eco-ansiedad desde hace meses y “apoyado” en su día a día por sus conversaciones con un robot conversacional desarrollado por OpenAI, se suicida. Finalmente, al momento de escribir este artículo, Sam Altman, CEO de OpenAI, aún no ha ratificado la carta abierta. Esta carta es un llamamiento solemne a la comunidad científica y a los gobiernos: “Hacemos un llamado a todos los laboratorios de IA para que suspendan de inmediato, durante al menos seis meses, el entrenamiento de sistemas de IA más potentes que GPT-4. Este descanso debe ser público y verificable, e incluir a todos los actores clave. Si tal pausa no pudiera decretarse rápidamente, los gobiernos deberían intervenir instituyendo una moratoria.

Leer tambiénElon Musk y cientos de expertos piden un descanso en la IA, citando “grandes riesgos para la humanidad”

Ya en 2014, Elon Musk consideraba que la IA era la "mayor amenaza existencial" para la humanidad y la comparó con "convocar al demonio". En ese momento, Musk estaba invirtiendo en compañías de inteligencia artificial como OpenAI, no para ganar dinero, sino para "controlar la tecnología en caso de que se fuera de control", dijo. En la conferencia de Asilomar en 2017, los científicos establecieron diez principios de la ética de la IA. 1/ Transparencia algorítmica y judicial; 2/ responsabilidad moral de los diseñadores y constructores; 3/alineación de valores sobre los objetivos y comportamientos de los sistemas entrenados en IA con valores humanos; 5/ respeto por la dignidad humana, los derechos, las libertades y la diversidad cultural de la raza humana; 6/confidencialidad de los datos personales; 7/libertad de actuar confidencialmente; 8/beneficio y prosperidad compartida; control humano; 9/ no subversión; 10/ rechazo a la carrera armamentista basada en IA. Es sobre la base de estos principios que muchos gobiernos europeos y empresas tecnológicas como Microsoft u Oracle han desarrollado su guía de ética; sin embargo, tenga en cuenta que el 14 de marzo, Microsoft disolvió su equipo de ética AI. En 2020, el Vaticano incluso se asociará con los gigantes Microsoft e IBM para promover el desarrollo ético de la IA y exigir la regulación del reconocimiento facial. El reciente discurso de Elon Musk en Dubai en la Cumbre Mundial de Gobiernos de 2023 nos recuerda una vez más los peligros sin precedentes de la inteligencia artificial, que también deberíamos llamar "algoritmos" para una mayor precisión científica y antropológica.

Sorprendentemente, algunos de los expertos firmantes se parecen un poco a los bomberos pirómanos. Denuncian las mismas tecnologías llamadas disruptivas que, sin embargo, ponen en el mercado. Tomemos el ejemplo de Deepmind, una subsidiaria de Google, que tiene muchos signatarios de la carta abierta. Este laboratorio de investigación intenta "resolver la inteligencia para hacer avanzar la ciencia y beneficiar a la humanidad". En julio de 2022, DeepMind anunció el desarrollo de DeepNash, un sistema de aprendizaje capaz de jugar el juego de mesa Stratégo al nivel de un experto humano. En sí mismo, hacer que una máquina venza a un ser humano en un juego de mesa no tiene ningún valor moral, pero la tecnología desarrollada por esta investigación en realidad se usa para modelar un cerebro artificial que Deepmind pretende hacer similar al cerebro humano en términos de creatividad e intuición. , percepción, lenguaje, análisis, etc. Este trabajo anuncia la hibridación de los humanos con la IA: el cerebro humano podrá entonces conectarse a la nube, gracias a una conexión tanto con el neocórtex como con robots externos y cualquier otra persona conectada.

Lea también“Frente al advenimiento de la inteligencia artificial, nos faltan filósofos”

Raymond Kurzweil, el exingeniero futurista de Google, es un transhumanista y fundador de la Universidad de la Singularidad, cuyo concepto central consiste en medir el punto de Singularidad, el momento en que la inteligencia humana colectiva sería superada por la inteligencia artificial. Sus proyecciones actuales lo llevan a 2045, cuando se espera que nuestra comprensión y capacidades en los campos de la inteligencia artificial (IA), los sistemas autónomos, la robótica, la biotecnología y la nanotecnología superen toda la inteligencia humana combinada. ¿Horarios coincidentes? Le 28 mars 2023, Ray Kurzweil annonçait que les humains atteindraient l'immortalité dans huit ans, que des nanorobots aideraient à garantir l'immortalité humaine car la génétique, les biotechnologies, les nanotechnologies et la robotique conduiraient à la mise au point de «nanorobots " Anti edad. Estos nanorobots repararían células y tejidos envejecidos y realizarían las funciones de la mayoría de los órganos vitales.

Gracias al test de Turing, padre fundador de la IA, podemos evaluar el paso de una entrevista oral o escrita donde la máquina sería indistinguible del hombre, constituyendo así el punto de inflexión hacia las IA “fuertes” que dominarían definitivamente la inteligencia humana. Podemos considerar que ChatGPT ya cumple las condiciones del test de Turing. Los bomberos pirómanos de IA, como Ray Kurzweil, los investigadores de DeepMind o OpenAI son, por lo tanto, ideólogos; salen del ámbito de la ciencia para proponer una nueva humanidad híbrida hombre-máquina: la transhumanidad.

Sin embargo, debe tenerse en cuenta que el legislador solo limita la investigación de manera muy temporal, que el legislador está a menudo detrás de la ciencia y que nada parece detener la máquina tecnológica, que se ha vuelto loca con, entre otras cosas, la comercialización de ChatGPT. Las biotecnologías son una ilustración de esto a través de sus avances. Estos son inseparables de la inteligencia artificial, a través del uso convergente y progresivo de tecnologías disruptivas como las nanotecnologías, las tecnologías cognitivas, las tecnologías informáticas y las biotecnologías, también conocidas como tecnologías NBIC.

Leer tambiénChatGPT: “La gran amenaza”

Por ejemplo, las tecnologías NBIC hacen posible crear bacterias sintéticas, crear quimeras humano-animales, producir células madre de alto rendimiento. Las tecnologías de modificación de genes (CrispR-Cas9 entre otras) permiten la investigación sobre la ganancia de función. Y, sin embargo, ya en 1975, la Conferencia de Asilomar expresó su oposición a la patentabilidad del genoma humano; La convención sobre derechos humanos y biomedicina conocida como Convención de Oviedo, de 1997, ratificada por Francia en 2011, prohíbe la clonación y la creación de embriones con fines de investigación y modificaciones genéticas irreversibles del genoma humano. Finalmente, el grupo de ética científica de la Comisión Europea abogó por la prohibición de la modificación genética irreversible del genoma humano en 2016.

Cabe señalar que, desde entonces, Francia ha puesto a disposición embriones humanos de FIV y células madre embrionarias para la investigación sin reservas. Un equipo francés publica en 2021 su investigación sobre la creación de quimeras entre humanos y simios, argumentando que estos resultados permitirían una mejor comprensión del desarrollo humano temprano y la evolución de los primates. En 2019, el biólogo francés Philippe Marlière creó una bacteria viable cuyo ADN incluye un compuesto sintético, ausente del reino de la vida. Afirmó que las técnicas de la xenobiología (biología ajena a la vida) se utilizaron para evitar cualquier intercambio entre la vida natural y los microorganismos. El principio de precaución no siempre guía el trabajo científico, como también hemos visto con los intercambios humano-animal del Sars-Cov2.

Leer tambiénInteligencia artificial: ¿debemos temer la revolución ChatGPT?

Entonces, ¿qué pasa con la iniciativa de carta abierta de Musk y otros expertos? ¿Qué presión mediática y financiera se ejercerá sobre las empresas objeto del “botón de pausa”, solicitado por este grupo de expertos a los desarrolladores de potentes algoritmos? ¿Cuándo se seguirán discerniendo las IA 'fuertes' de los humanos en todos los dominios, sin que el límite crítico entre humanos y máquinas sea aún discernible? ¿Cómo reafirmar quién es el ser humano y frenar los “aumentos” tecnológicos que lo desfigurarían, en detrimento de su humanidad? Estas preguntas son abismales de consecuencias nocivas e incuantificables. Solo podemos elogiar el intento de Elon Musk y esperar que la arrogancia científica actual no mate a nadie más que a este hombre, que confundió un algoritmo con el ser humano. "La ciencia sin conciencia no es más que la ruina del alma", nos recuerda Rabelais en Pantagruel, criticando así a quienes no reconocen límite ni finitud en la naturaleza humana. Afirmamos que nuestro futuro tecnológico debe seguir siendo humanista, respetuoso de nuestra dignidad, nuestra libertad y nuestra vulnerabilidad.

Avatar
Your Name
Post a Comment
Characters Left:
Your comment has been forwarded to the administrator for approval.×
Warning! Will constitute a criminal offense, illegal, threatening, offensive, insulting and swearing, derogatory, defamatory, vulgar, pornographic, indecent, personality rights, damaging or similar nature in the nature of all kinds of financial content, legal, criminal and administrative responsibility for the content of the sender member / members are belong.