Si saludas a ChatGPT y le agradeces cuando responde, no le estás aprovechando al máximo. Algunos investigadores quisieron comprobar si el tono que utilizamos cuando preguntamos a la IA sobre las cosas cambia los resultados, y encontraron algo interesante: la mala educación los hace más confiables.
Descortés. ellos lo dicen Cómo hacer IA. A Estudio realizado por investigadores de la Universidad de Pensilvania. Analizaron si el tono que utilizamos al escribir una consigna influye en el resultado y si las conclusiones son claras. Las indicaciones con un tono “grosero” o “muy grosero” provocaron respuestas hasta un 4% más precisas que aquellas con un tono más educado.
el estudio. Para probarlo, crearon una lista de 50 preguntas sobre diversos temas como historia, ciencias o matemáticas. Cada una de las preguntas se formuló en cinco tonos diferentes: muy educado, educado, neutral, grosero y muy grosero. El modelo utilizado fue ChatGPT-4o.
Los resultados. Los investigadores completaron diez rondas con todas las preguntas en diferentes tonos y las conclusiones fueron muy claras. Si nos fijamos en las variaciones, la diferencia entre el tono neutro y el rudo es sólo del 0,6%, pero en los extremos la diferencia se hace más notoria. Con un tono “muy amable”, la media de acierto fue del 80,8%, mientras que con “muy grosero” se elevó al 84,8%.
Amabilidad por defecto. Solemos hablar amablemente con los chatbots, y esto se refleja la encuesta que Future realizó a finales de 2024. Al menos el 70% de los encuestados admitió haber usado «por favor» y «gracias» cuando usaban chatbots de IA. Muchos dijeron que lo hicieron por motivos de costumbre, cultura y «porque es lo correcto», aunque un pequeño porcentaje admitió temer que los robots se rebelaran en el futuro.
es caro. Independientemente de las razones que nos llevan a ser amables con la IA, hay una realidad: “Por favor” y “Gracias” tienen un precio absurdo. Si agradecemos a ChatGPT, aumentan las solicitudes al modelo de lenguaje, lo que aumenta el consumo de energía y agua en los centros de datos. Sin embargo, no tenemos números. Sam Altman aseguró Esta amabilidad le costó a OpenAI «decenas de millones de dólares bien gastados».
la solicitud. A pesar de los enormes avances en IA, los modelos de lenguaje aún sorprenden y no son 100% confiables. Sin embargo, el error de que las respuestas no sean precisas muchas veces no reside en el modelo, sino en la forma en que lo preguntamos. Hay trucos para conseguir un buen mensaje, y ser amigable o usar expresiones como «Si puedes, me gustaría que…» es una de las cosas que debes evitar. Tampoco se trata de tratarlos mal, porque eso tampoco ayuda, pero cuanto más directo y claro seas mejor será el resultado.
Imagen | Pexels
En | Los agentes de IA quieren quitarnos nuestros trabajos. Primero, tienen que aprender a no suspender el 70% de las tareas.











