Los modelos de lenguaje son sistemas informáticos capaces de generar y comprender textos en lenguajes naturales, como el español. Estos modelos han avanzado mucho en los últimos años, gracias al desarrollo de arquitecturas como GPT-4, que pueden aprender de grandes cantidades de datos y producir textos coherentes y relevantes para una gran variedad de tareas.
Sin embargo, los modelos de lenguaje no son perfectos, y a veces pueden cometer errores o generar respuestas que no se ajustan a lo que esperamos. Por eso, es importante saber cómo diseñar y optimizar los estímulos que les enviamos, para obtener los mejores resultados posibles. A esto se le llama ingeniería de estímulos, y consiste en aplicar una serie de estrategias y tácticas que nos ayuden a comunicarnos mejor con los modelos de lenguaje.
En este artículo, voy a resumir algunas de las estrategias y tácticas que propone OpenAI, la empresa que desarro
lla GPT-4, para recibir mejores respuestas gracias a mejores consultas:
- Escribir instrucciones claras: Los modelos de lenguaje no pueden leer nuestra mente, así que tenemos que ser explícitos y detallados en lo que les pedimos. Por ejemplo, si queremos que nos den respuestas breves, se lo tenemos que indicar. Si queremos que nos den respuestas de nivel experto, también. Si queremos que nos den respuestas en un formato específico, tenemos que mostrarles un ejemplo. Cuanto menos tenga que adivinar el modelo, más probable es que nos dé lo que queremos.
- Proporcionar texto de referencia: Los modelos de lenguaje pueden inventar respuestas falsas, especialmente cuando les preguntamos sobre temas poco conocidos o les pedimos citas o URLs. Para evitar esto, podemos proporcionarles un texto de referencia que contenga información relevante y fiable sobre el tema que les interesa. Así, el modelo podrá basarse en ese texto para dar respuestas más precisas y veraces.
- Dividir las tareas complejas en subtareas más simples: Al igual que en la ingeniería de software, es buena práctica descomponer un sistema complejo en un conjunto de componentes modulares. Lo mismo se aplica a las tareas que enviamos a un modelo de lenguaje. Las tareas complejas suelen tener más errores que las tareas simples. Además, las tareas complejas se pueden redefinir como un flujo de trabajo de tareas más simples, en el que las salidas de las tareas anteriores se usan para construir las entradas de las tareas posteriores.
- Darle tiempo al modelo para "pensar": Si nos piden que multipliquemos 17 por 28, puede que no lo sepamos al instante, pero podemos calcularlo con tiempo. Lo mismo les pasa a los modelos de lenguaje, que cometen más errores de razonamiento cuando intentan responder de inmediato, que cuando se toman su tiempo para trabajar la respuesta. Pedirle al modelo que nos muestre su "cadena de pensamiento" antes de dar la respuesta puede ayudarle a razonar mejor y a llegar a respuestas más correctas.
Estas son solo algunas de las estrategias y tácticas que podemos usar para mejorar la calidad de las respuestas que obtenemos de los modelos de lenguaje. Hay muchas más, y lo mejor es experimentar y probar diferentes combinaciones para encontrar las que mejor se adapten a nuestras necesidades. Los modelos de lenguaje son herramientas poderosas, pero también requieren de nuestra habilidad y creatividad para sacarles el máximo partido.