Cómo crear un prompt - La lucha contra los sesgos en los LLM


Técnicas de ingeniería de prompts obtenidas de Prompt.Org

Guardando una estrecha relación con mi entrada anterior, voy a explicar ahora cómo construir un buen prompt para los LLM. Ya explicado el capitalismo cognitivo y revelada la facilidad con la que las IAs pueden perpetuar sesgos somos conscientes de estas realidades y de lo beneficiosas que pueden ser las Bibliotecas de Prompts Colaborativas. Sin embargo, todavía hay pocas o sus prompts no coinciden con lo que queremos. Por ello vamos a aprender cómo realizar nuestros propios prompts enfocándonos en nuestros intereses, la mayor eficiencia y en evitar los sesgos. 


Cuando enviamos un prompt a un LLM debemos entender qué es lo que estamos haciendo, estamos dando una instrucción. Tenemos un objetivo, un fin, y lo estructuramos en un texto para que el Chat Bot comprenda qué es lo que queremos y así pueda realizarlo. Además, hay que comprender, lo máximo posible, cómo funciona su recopilación y selección de datos y cuáles son sus límites. Si no le pedirías a un Roomba que ganara la medalla de oro en una competición de tiro con arco, tampoco le pidas a ChatGPT que sea tu amigo o que descubra la cura para una nueva enfermedad. Los LLM son herramientas y, como las demás herramientas, sirven a la voluntad humana, siempre que las controlemos. Para poder mantener el control humano en los LLM, y obtener respuestas más precisas o útiles, se propone la siguiente metodología: asignar un rol al LLM, es uno de los pasos más importantes pues permite tanto acotar la búsqueda de información a lo necesario como recibir información contextualizada o filtrada por nuestros intereses (se recomienda, además, proveer al Chat Bot de autores o paradigmas críticos); expresar la tarea que le estamos pidiendo, siempre de forma clara, que es el objetivo principal que buscábamos conseguir (muchas veces este paso es lo único que redactamos en el prompt, lo que es ineficaz); dar un contexto o mostrar nuestras inclinaciones u objetivos, para que pueda enfocarse en cumplir estos, y no otros, además de que permite delimitar a la IA según nuestros intereses; y pedir tareas concretas, es decir, que el LLM sepa qué es lo que queremos, en que orden o de que manera y proponer cómo debe hacerlo. Además, una vez hemos recibido la respuesta, debemos observarla con ojos críticos. La IA puede cometer errores o, a pesar de las precauciones, seguir mostrando sesgos. Por ello debemos validar las respuestas, como validaríamos la veracidad de una noticia o una teoría, y corregir los errores activamente, para contribuir a que deje de cometerlos. A parte de la estructura básica para escribir un prompt se proponen técnicas concretas que mejoran las respuestas y nos permiten un espacio crítico, en su mayoría, para intentar evitar errores y sesgos:

Cadena de pensamientos - Que la IA razone paso a paso, siguiendo un orden lógico y que el usuario controle, gracias a realizar sucesivos prompts. Luego "su contrario", el prompting metacognitivo. Esto es, simplemente, ordenar al LLM que te explique el proceso por el que ha llegado a alguna conclusión, es decir, a la respuesta que ha dado. De esta manera enseñará su "cadena de pensamientos". No se controlará la cadena pero servirá para conocer y entender la sucesión lógica o su recopilación de datos y para poder identificar posibles sesgos. 

Few-Shot Learning - Dar de 3 a 5 ejemplos, realizando juicios de valor sobre ellos, para que la IA reconozca el patrón y sea capaz de crear una respuesta en base a ellos. De esta manera, se controla la valoración que utiliza el LLM.

Asignar un rol - Se contextualiza a la IA para que filtre información innecesaria y elija la información que se requiere, siendo así más contextualizada o especializada. Además, se controla la "personalidad" del LLM con cada información sobre el contexto que se envía, subordinándola a los intereses personales y mejorando sus respuestas. Como herramienta que utiliza este principio se encuentran los GEMs de Gemini. Con esta herramienta, podremos crear un chat con una tarea y un rol concretos que se diferenciará de los demás, y se podrá utilizar para cualquier requisito concreto. Si se busca la mejor contextualización posible, queriendo evitar las búsqueda de información del LLM en fuentes secundarias o no deseadas, se podrán subir archivos, como pdfs (por ejemplo, "La crítica de la razón pura" de Kant o "Fascismo Eterno" de Umberto Eco), para que el chat los utilice como fuente de información, tanto en los chats normales como en los GEMs.

Self-Consistency - Se realiza la misma pregunta a la IA desde perspectivas diferentes, cambiando la manera en la que se escribe y el rol/contexto desde el que debe responder el Chat Bot. Además de mostrar perspectivas diferentes, hace ligeramente visibles los sesgos de cada rol/contexto para que puedan ser tenidos en cuenta.

Prompting socrático - Permite convertir la conversación con el LLM en un diálogo socrático estructurado. Se han de pensar todas las preguntas antes de realizarlas para formar una estructura que conduzca hacia unas respuestas críticas y provechosas. De esta manera, habrá que enfocarse en criticar la respuesta del chat para que él mismo mejore sus respuestas. Conviértete en Sócrates y a ChatGPT en un sofista. 

Plantillas de prompting - Utilizar "plantillas" donde se estructure la información y los requisitos que se pidan a la IA. Se establece un contexto o tarea, que es el fin que se requiere. Después se estructuran los objetivos, las restricciones, el formato de salida. Como parte de esta estructura, se puede añadir una parte de "sesgos a evitar" donde se fuerce al LLM a evitar los sesgos que se prevén o incluso los que se pueden prever (si se añaden). 



Si se asigna un rol muy concreto (Por ej. "Actúa como si fueras Donald Trump", "como Nicolás Maquiavelo" o "como Mao Zedong") los sesgos propios del LLM y los datos con los que se ha entrenado desaparecerán en gran medida. Además, la respuesta ya no tendrá un origen desconocido sino que tendremos un porqué de lo que la IA responde (aunque nunca debería tomarse la respuesta como si fuera la respuesta real que daría esta persona, pues el LLM puede estar sujeto a fuentes secundarias sobre el personaje y a diversas interpretaciones). Pero esto deja dos opciones sobre los sesgos. Si se  comparten los mismos sesgos que la persona en cuestión, el problema ya no es del LLM, sino del usuario. Si no se comparten, será posible identificarlos y ponerlos en duda. Si, además, se utiliza la técnica de Self-Consistency los sesgos o ideologías subyacentes podrán ser más fáciles de identificar. De esta manera, los sesgos sociales, la ideología dominante o la hegemonía cultural, contenidas dentro de los datos de la IA, han sido filtrados y purgados en gran medida, convirtiéndolos en un sesgo individual. Así, se individualizan y humanizan las respuestas y los sesgos, controlando la respuesta que ofrece el Chat Bot y estamos a un solo click de pedirle que ponga en duda nuestros propios pensamientos, lo único que se necesita es voluntad crítica. 

Utilizando estas técnicas y entendiendo el funcionamiento de los LLM y las particularidades de cada caso, no sólo se mejorarán las respuestas sino que se podrán humanizar o podrán ser controladas por el factor humano. De esta manera, los sesgos sociales que perpetúan sus bases de datos o los emporios tecnológicos que controlan los LLM se reducirán en gran medida. Además, para intentar evitar nuestros propios sesgos y la actitud complaciente de los Chat Bots, siempre se podrá pedir al mismo que tome una visión crítica con nuestras órdenes o con sus propias respuestas, utilizando las técnicas ya mencionadas y realizando también prompts de calidad.

Enrique Jurado

Ejemplos de Prompts 

Respuestas generadas por Gemini. Creación de Prompts contextualizados, con un rol y con tareas específicas. Además, muestra la técnica de Self-Consistency y permite revisar distintas perspectivas e identificar las ideas que se repiten y los posibles sesgos. 

EJEMPLOS



Bibliografía

REBIUN, Red de Bibliotecas Universitarias. Observatorio de Inteligencia Artificial: Lista de prompts https://www.rebiun.org/observatorio-de-inteligencia-artificial/prompts?f%5B0%5D=prompt_herramientas%3AGemini 

Prompt.org.es - Aprende Ingeniería de Prompts en Español. https://www.prompt.org.es/

Comentarios

Entradas populares