Cómo crear un prompt - La lucha contra los sesgos en los LLM
Few-Shot Learning - Dar de 3 a 5 ejemplos, realizando juicios de valor sobre ellos, para que la IA reconozca el patrón y sea capaz de crear una respuesta en base a ellos. De esta manera, se controla la valoración que utiliza el LLM.
Asignar un rol - Se contextualiza a la IA para que filtre información innecesaria y elija la información que se requiere, siendo así más contextualizada o especializada. Además, se controla la "personalidad" del LLM con cada información sobre el contexto que se envía, subordinándola a los intereses personales y mejorando sus respuestas. Como herramienta que utiliza este principio se encuentran los GEMs de Gemini. Con esta herramienta, podremos crear un chat con una tarea y un rol concretos que se diferenciará de los demás, y se podrá utilizar para cualquier requisito concreto. Si se busca la mejor contextualización posible, queriendo evitar las búsqueda de información del LLM en fuentes secundarias o no deseadas, se podrán subir archivos, como pdfs (por ejemplo, "La crítica de la razón pura" de Kant o "Fascismo Eterno" de Umberto Eco), para que el chat los utilice como fuente de información, tanto en los chats normales como en los GEMs.
Self-Consistency - Se realiza la misma pregunta a la IA desde perspectivas diferentes, cambiando la manera en la que se escribe y el rol/contexto desde el que debe responder el Chat Bot. Además de mostrar perspectivas diferentes, hace ligeramente visibles los sesgos de cada rol/contexto para que puedan ser tenidos en cuenta.
Prompting socrático - Permite convertir la conversación con el LLM en un diálogo socrático estructurado. Se han de pensar todas las preguntas antes de realizarlas para formar una estructura que conduzca hacia unas respuestas críticas y provechosas. De esta manera, habrá que enfocarse en criticar la respuesta del chat para que él mismo mejore sus respuestas. Conviértete en Sócrates y a ChatGPT en un sofista.
Plantillas de prompting - Utilizar "plantillas" donde se estructure la información y los requisitos que se pidan a la IA. Se establece un contexto o tarea, que es el fin que se requiere. Después se estructuran los objetivos, las restricciones, el formato de salida. Como parte de esta estructura, se puede añadir una parte de "sesgos a evitar" donde se fuerce al LLM a evitar los sesgos que se prevén o incluso los que se pueden prever (si se añaden).
Si se asigna un rol muy concreto (Por ej. "Actúa como si fueras Donald Trump", "como Nicolás Maquiavelo" o "como Mao Zedong") los sesgos propios del LLM y los datos con los que se ha entrenado desaparecerán en gran medida. Además, la respuesta ya no tendrá un origen desconocido sino que tendremos un porqué de lo que la IA responde (aunque nunca debería tomarse la respuesta como si fuera la respuesta real que daría esta persona, pues el LLM puede estar sujeto a fuentes secundarias sobre el personaje y a diversas interpretaciones). Pero esto deja dos opciones sobre los sesgos. Si se comparten los mismos sesgos que la persona en cuestión, el problema ya no es del LLM, sino del usuario. Si no se comparten, será posible identificarlos y ponerlos en duda. Si, además, se utiliza la técnica de Self-Consistency los sesgos o ideologías subyacentes podrán ser más fáciles de identificar. De esta manera, los sesgos sociales, la ideología dominante o la hegemonía cultural, contenidas dentro de los datos de la IA, han sido filtrados y purgados en gran medida, convirtiéndolos en un sesgo individual. Así, se individualizan y humanizan las respuestas y los sesgos, controlando la respuesta que ofrece el Chat Bot y estamos a un solo click de pedirle que ponga en duda nuestros propios pensamientos, lo único que se necesita es voluntad crítica.
Utilizando estas técnicas y entendiendo el funcionamiento de los LLM y las particularidades de cada caso, no sólo se mejorarán las respuestas sino que se podrán humanizar o podrán ser controladas por el factor humano. De esta manera, los sesgos sociales que perpetúan sus bases de datos o los emporios tecnológicos que controlan los LLM se reducirán en gran medida. Además, para intentar evitar nuestros propios sesgos y la actitud complaciente de los Chat Bots, siempre se podrá pedir al mismo que tome una visión crítica con nuestras órdenes o con sus propias respuestas, utilizando las técnicas ya mencionadas y realizando también prompts de calidad.
Enrique Jurado
Ejemplos de Prompts
Respuestas generadas por Gemini. Creación de Prompts contextualizados, con un rol y con tareas específicas. Además, muestra la técnica de Self-Consistency y permite revisar distintas perspectivas e identificar las ideas que se repiten y los posibles sesgos.
Bibliografía
REBIUN, Red de Bibliotecas Universitarias. Observatorio de Inteligencia Artificial: Lista de prompts https://www.rebiun.org/observatorio-de-inteligencia-artificial/prompts?f%5B0%5D=prompt_herramientas%3AGemini
Prompt.org.es - Aprende Ingeniería de Prompts en Español. https://www.prompt.org.es/


Comentarios
Publicar un comentario