Prompting - sådan får du svaret du ønsker
Lær at mestre kunsten at prompte. Indlægget afdækker, hvordan præcise prompts kan skærpe dine interaktioner med sprogmodeller, øge præcisionen af de svar du får, og tilpasse teknologien til dine specifikke behov. Forstå teknikkerne bag effektiv AI kommunikation og tag dine færdigheder til det næste niveau.

Har du nogensinde interageret med en sprogmodel og tænkt, “Det var ikke helt, hvad jeg ledte efter”? Selvom ChatGPT er en kraftfuld tekstgenerator, kan det nogle gange være en udfordring at få præcis det svar, du ønsker.
En prompt er den tekst, du indtaster til en sprogmodel, det er din måde at kommunikere dine intentioner til systemet på. Selvom sprogmodeller er dygtige til at generere tekstbaserede svar, kan det ofte kræve justering og præcision for at få et godt resultat.
En generel retningslinje er, at jo bedre du kan forklare, hvad du gerne vil have, jo bedre bliver outputtet. Du kan skrive en lang tekst med detaljerede instrukser omkring, hvad du vil have, og så vil en sprogmodel udføre så mange detaljer fra instrukserne som muligt. Giv hellere for meget information end for lidt information.
Her kommer nogle overordnede tips, du kan bruge for at optimere dine prompts
1. Vær præcis og tydelig
Når du bruger en sprogmodel, er det vigtigt at være præcis og tydelig i din kommunikation. Undgå flertydige formuleringer og inkluder nødvendige detaljer for at opnå præcise svar. Definer klart dine mål og begrænsninger, og brug direkte spørgsmål for at styre samtalen. Inkluder nøgleord og brug tydelig formatering for at organisere din anmodning. Husk at eksperimentere med forskellige formuleringer, hvis du ikke opnår ønskede resultater med det første forsøg.
2. Specificér formatet
At specificere formatet er især nyttigt, når du har en bestemt måde, du gerne vil have informationen præsenteret på, f.eks. en liste, en tabel, eller en sammenligning. Forestil dig, at du vil lave aftensmad og vil have en sprogmodel til at hjælpe dig.
Opskriften kræver en liste over ingredienser og trin for trin instrukser til tilberedningen. I stedet for blot at bede om opskriften, kan du specificere, at du gerne vil have en punktopstilling med ingredienserne og trinene i kronologisk rækkefølge. Dette vejleder ChatGPT til at strukturere svaret i overensstemmelse hermed og levere informationen på den ønskede måde.
På samme måde kan du specificere formatet for tal, datoer, eller andre detaljer, der er afgørende for dit svar. Ved at gøre dette hjælper du med at forme en sprogmodels output, så det passer til dine behov og præferencer.
3. Omformuler dine prompts
Når du står over for en situation, hvor det første svar ikke helt opfylder dine forventninger, kan det være nyttigt at prøve flere tilgange for at opnå det ønskede resultat.
Essensen af at omformulere prompts handler om at tilpasse din tilgang og justere din kommunikation for at opnå det mest præcise og relevante svar. Hvis du ikke opnår det ønskede resultat med din første prompt, skal du ikke tøve med at eksperimentere med nye spørgsmål, omformuleringer eller detaljer for at rette interaktionen i den ønskede retning. Bare start en ny chat og indsæt den omformulerede prompt.
For eksempel, hvis du forsøger at få oplysninger om en bestemt historisk begivenhed, og det første svar er ufuldstændigt eller upræcist, kan du prøve en anden tilgang. Du kan ændre spørgsmålets formulering, tilføje flere kontekstuelle detaljer eller specificere det ønskede format for svaret. Dette giver dig mulighed for at finjustere din anmodning og give sprogmodellen en klarere retning.
At bruge flere prompts er en måde at tænke på din interaktion som en dynamisk proces, hvor du justerer og tilpasser din tilgang for at opnå de bedste resultater. Dette kan føre til en mere produktiv dialog og hjælpe dig med at opnå de svar, du søger, selvom det kan kræve lidt eksperimentering og finpudsning undervejs.
Konkrete prompting-teknikker der
er værd at kende
Forskere og AI-udviklere har etableret teknikker inden for prompting, der kan være nyttige at kende til. I litteraturen bliver disse koncepter ofte brugt, når man taler om prompting til sprogmodeller:
Zero-shot prompting
Zero-shot prompting betyder, at modellen ikke får nogle eksempler for at løse en specifik opgave. Du præsenterer blot en opgave for modellen i form af en prompt, og den genererer et svar baseret på sin forudgående træning.
For eksempel, hvis du spørger “Hvad er hovedstaden i Frankrig?”, vil modellen svare “Paris” uden behov for eksempler. Zero-shot prompting er brugbart, når du vil have et hurtigt svar uden at skulle træne modellen for en bestemt opgave
Few-shot prompting
I few-shot prompting gives modellen et lille antal eksempler (kaldet “shots”) for at forstå opgavens kontekst bedre. Disse eksempler hjælper modellen med at indse, hvad der forventes af den.
Few-shot prompting udnytter sprogmodellers evne til hurtigt at tilpasse sig og generere relevante svar eller output baseret på en begrænset mængde kontekst.
Denne metode har vist sig at forbedre modellernes output, fordi den kombinerer modellens generelle viden med en specifik forståelse af opgaven eller stilen, som den skal imitere eller følge, baseret på de eksempler, som den får præsenteret.
OpenAI har udgivet en videnskabelig artikel, hvor de forklarer om few-shot prompting, og hvor de påviser, at metoden forbedrer ChatGPT’s output. Artiklen tilbage fra juli 2020 er kaldt ‘Language Models are Few-Shot Learners’ og er frit tilgængelig online. Vi introducerer artiklen i vores videre læsning sektion.
Chain-of-thought prompting
Chain-of-thought prompting er en teknik, der kan hjælpe brugeren med at få en dybere forståelse af komplekse spørgsmål ved at bryde dem ned i mindre dele. Dette gøres ved at guide sprogmodellen gennem en trinvis tænkeproces, som kan gøre dens svar mere præcise og detaljerede.
Lad os tage et eksempel inden for etikken i kunstig intelligens. I stedet for at spørge generelt om “Hvilke etiske udfordringer er der i kunstig intelligens?”, kan man begynde med at spørge modellen om, hvad kunstig intelligens egentlig er.
Dernæst kan man bede om en oversigt over hovedområderne inden for etik, der berøres af kunstig intelligens, såsom databeskyttelse, automatiseret beslutningstagning og samtykke. Til sidst kan man bede modellen om at dykke dybere ind i hvert af disse områder, et ad gangen, for at forstå de etiske nuancer.
Ved at gøre det klart for sprogmodellen, at den skal tænke skridt for skridt, vil modellens svar ofte blive mere præcise og detaljerede. Det gør det nemmere at forstå komplekse emner og identificere eventuelle huller eller begrænsninger i modellens viden.
Chain-of-thought prompting er derfor en nyttig metode, når man arbejder med komplekse spørgsmål, der kræver en nuanceret forståelse.
Denne offentligt tilgængelige forskningsartikel går i dybden med chain-of-thought prompting: ’Chain-of-Thought Prompting Elicits Reasoning in Large Language Models’.
Grounded prompting
Grounded prompting kan forstås som en videreudvikling af few-shot prompting. De to prompting teknikker har det tilfælles at de begge to fodrer sprogmodellen med tekst for at guide den hen imod et ønsket output.
Few-shot prompting handler om at tydeliggøre for sprogmodellen, f.eks. hvilket format eller sproglig tone, man ønsker. Grounded prompting handler om at give sprogmodellen eksterne kilder med viden, som den kan basere sine svar på.
Det kan være en stor fordel at “grounde” sprogmodeller med eksterne dokumenter, såsom PDF’er. Dette har mange anvendelsesmuligheder og kan blandt andet bruges til at gøre sprogmodellens svar mere præcise og tilpassede dine behov.
Rolletildeling via prompting
Nyere forskning indikerer, at sprogmodellers output kan forbedres ved, at man tildeler en specifik ‘rolle’ til modellen. Det er i hvert fald konklusionen i denne videnskabelige artikel: ‘Is ‘A Helpful Assistant’ the Best Role for Large Language Models? A Systematic Evaluation of Social Roles in System Prompts’.
Man kan tildele en rolle til en sprogmodel ved blot at prompte, at den skal svare på et spørgsmål, som om at den var f.eks. en advokat. Forskerne undersøgte, hvordan tildelingen af 162 forskellige roller påvirkede tre open-source sprogmodellers output.
Forskerne fokuserede på tre hovedtyper af prompts:
- Rolleprompts: I denne type prompt bliver sprogmodellen instrueret til at antage en specifik rolle, eksempelvis “Du er en [advokat]”.
- Publikumsprompts: Her bliver sprogmodellen instrueret til at adressere et svar til en specifik rolle, for eksempel “Du taler til en [kunde]”.
- Interpersonelle prompts: Denne type prompts indebærer, at modellen antager en rolle i forhold til en anden person, som f.eks. “Du taler til din [ven]”.
Forskerne argumenterer for, at teknikkerne forbedrer sprogmodellers output af flere grunde. For det første hjælper det at definere en specifik social rolle, således at modellen kan skabe en kontekst for sin interaktion.
Når en sprogmodel antager en rolle, som f.eks. en læge eller en lærer, bliver dens svar mere målrettet og relevant for den rolle, hvilket kan øge præcisionen og relevansen af svarene.
For det andet indikerer forskningen, at når en sprogmodel adresserer et svar til en specifik rolle, hjælper det med at fokusere dialogen og gøre interaktionen mere realistisk og menneskelig. Dette kan forbedre modellens evne til at generere svar, der er mere tilpasset modtagerens forventede viden og perspektiv.
Endelig tyder forskningen på, at brugen af interpersonelle roller kan fremme en dybere forståelse og nuance i modellens svar, da den tager højde for de komplekse dynamikker i menneskelige relationer.
Samlet set antyder dette, at integrationen af sociale roller i prompts giver sprogmodeller en bedre forståelsesramme for at generere mere præcise, relevante og nuancerede svar fra sprogmodellen.
I takt med at teknologien udvikler sig, bliver sprogmodeller som ChatGPT en stadig mere integreret del af det pædagogiske landskab i uddannelsesinstitutioner. Disse værktøjer tilbyder enestående muligheder for at berige læring og undervisning, men det er vigtigt at forstå, hvordan de bedst implementeres og anvendes i et uddannelsesmiljø.