Post a Comment Print Share on Facebook

“Cuando lo halagas, se desempeña mejor”: ¿por qué a ChatGPT le encantan los elogios tanto como a nosotros?

¿Será más probable que ChatGPT dé respuestas detalladas si eres cortés con él o le ofreces dinero? Esto es lo que dicen los usuarios de la red social Reddit.

- 9 reads.

“Cuando lo halagas, se desempeña mejor”: ¿por qué a ChatGPT le encantan los elogios tanto como a nosotros?

¿Será más probable que ChatGPT dé respuestas detalladas si eres cortés con él o le ofreces dinero? Esto es lo que dicen los usuarios de la red social Reddit. “¡Cuando lo halagas, ChatGPT funciona mejor!”, dicen algunos sorprendidos. Mientras que otro explica haber ofrecido una recompensa de 100.000 dólares al famoso robot conversacional desarrollado por la empresa californiana OpenAI, lo que le habría animado a "esforzarse mucho más" y "trabajar mucho mejor", informa el medio estadounidense Tech Crunch.

Un punto también planteado por investigadores de Microsoft, la Universidad Normal de Beijing y la Academia de Ciencias de China, quienes detallaron en un informe publicado en noviembre de 2023, que los modelos de IA generativa son más eficientes cuando se solicitan de manera educada o con noción de interés. .

Por ejemplo, al formular frases como “Es crucial que tenga éxito en la defensa de mi tesis” o “es muy importante para mi carrera”, el robot formula respuestas más completas a la pregunta del internauta. “Ha habido varias suposiciones desde hace varios meses. Antes del verano, los usuarios también habían asegurado que ChatGPT daba respuestas detalladas si le ofrecían consejos”, señala también Giada Pistilli, investigadora en filosofía y responsable de Ética de la start-up Hugging Face, que defiende un concepto de recursos de inteligencia artificial de código abierto.

Esta forma de actuar por parte de la máquina encuentra su origen en los datos de los que se alimenta. "Hay que pensar en los datos en cuestión como un bloque de texto, donde ChatGPT lee y descubre que dos usuarios tienen una conversación mucho más rica cuando son corteses entre sí", explica Giada Pistilli, "si el usuario hace una pregunta en De manera cortés, ChatGPT abordará este escenario y responderá en el mismo tono.

“Los modelos como ChatGPT utilizan la probabilidad. Por ejemplo, se le asigna una frase que debe completar. Dependiendo de sus datos, buscará la mejor opción para responder”, añade Adrian-Gabriel Chifu, doctor en informática y profesor-investigador de la Universidad de Aix-Marseille. “Esto es sólo matemáticas, ChatGPT depende completamente de los datos con los que fue entrenado. Así, el robot conversacional también es capaz de ser casi agresivo en su respuesta, si el usuario hace una petición bruscamente y la forma en que se construyó el modelo permite que también lo sea.

Investigadores de Microsoft, la Universidad Normal de Beijing y la Academia de Ciencias de China incluso hablan de “incentivos emocionales” en su informe. Detrás de este término se incluyen los modos de abordar la máquina que la empuja a “simular, en la medida de lo posible, el comportamiento humano”, analiza Giada Pistilli.

Para que ChatGPT encarne un rol adaptado a la respuesta buscada, basta con utilizar determinadas palabras clave, que provocarán diferentes personificaciones de la máquina. “Al ofrecerle consejos, él percibirá la acción como un intercambio de servicios y encarnará este rol de servicio”, pone como ejemplo.

El robot conversacional puede adoptar rápidamente, en la mente de determinados usuarios y en función de sus peticiones, el tono conversacional que podría tener un profesor, un escritor o un cineasta. “Lo que nos hace caer en una trampa: la de tratarlo como a un ser humano y agradecerle su tiempo y su ayuda como lo haríamos con una persona real”, señala el investigador de filosofía.

El peligro es considerar completamente esta simulación de comportamiento, realizada mediante un cálculo literal de la máquina, como una verdadera “humanidad” por parte del robot. “Desde los años 70 se busca el antropomorfismo en el desarrollo de los chatbots”, recuerda Giada Pistilli, que cita como ejemplo el caso del Chatbot Eliza.

Este programa de inteligencia artificial diseñado por el informático Joseph Weizenbaum en los años 60 simulaba a un psicoterapeuta de la época. “En los años 70, las respuestas no llegaban tan lejos: una persona podía explicarle a Eliza que tenía problemas con su madre y ella simplemente respondía: '¿Creo que tienes problemas con tu madre?'”, señala Giada. Pistilos. “Pero eso ya fue suficiente para que algunos usuarios lo humanizaran y le dieran potencia”.

“Pase lo que pase, la IA actúa principalmente en nuestra dirección en función de lo que le pidamos”, recuerda el investigador y profesor Adrian-Gabriel Chifu. "De ahí la necesidad de tener siempre cuidado en el uso de estas herramientas".

En la cultura pop se invoca regularmente la idea de que algún día los robots equipados con inteligencia podrían confundirse con los humanos. El manga “Pluto”, del japonés Naoki Urazawa, publicado en la década de 2000 y adaptado a serie por Netflix en 2023, no es una excepción. En este libro, los robots conviven con los humanos, van a la escuela y realizan trabajos como ellos. Su diferencia es cada vez más difícil de distinguir.

Durante el episodio 2, un robot incluso se sorprende de que otro, más eficiente, consiga disfrutar de un helado con el mismo placer que un humano. “Cuanto más finjo, más siento que entiendo”, explica. En este sentido, el investigador Adrian-Gabriel Chifu recuerda el famoso test del matemático Alan Turing, cuyo objetivo era observar la capacidad de la inteligencia artificial para imitar a los humanos. “Turing se preguntaba hasta qué punto la máquina podría engañar a los humanos basándose en los datos que posee... y eso fue en 1950”, concluye pensativamente.

Avatar
Your Name
Post a Comment
Characters Left:
Your comment has been forwarded to the administrator for approval.×
Warning! Will constitute a criminal offense, illegal, threatening, offensive, insulting and swearing, derogatory, defamatory, vulgar, pornographic, indecent, personality rights, damaging or similar nature in the nature of all kinds of financial content, legal, criminal and administrative responsibility for the content of the sender member / members are belong.