Chat GPT Formidling og AI Kommunikation og retorik Kunstig intelligens Tips og tricks til GPT

Du skal promte, når du taler med din GPT-model

At promte betyder at tale eller agere hurtigt og effektivt, uden tøven og med overbevisning. Det minder lidt om de retoriske dyder, i alle tilfælde når det kommer til det effektive og det overbevisende 😉

Når vi arbejder fagspecifikt, fx med organisationers egenart i formidling, og vælger at få en hjælpende hånd fra kunstig intelligens som Chat GPT, er det afgørende at der kommunikeres klart og præcist. Men hvorfor er det så vigtigt at promte, når vi taler med en LLM (Large Language Model)?

Lad os se på nogle af de grunde, der gør prompting væsentlig:

Effektivitet: En GPT-model fungerer bedst, når den får klare og præcise input. Jo mere præcis og konsistent din kommunikation er, jo mere sandsynligt er det, at du får et præcist og brugbart svar fra modellen. Ved at promte kan du opnå bedre resultater hurtigere og mere effektivt.

Præcision: Når du arbejder med en LLM, kan nøjagtigheden af de genererede svar variere. Hvis du kommunikerer klart og præcist, øger du sandsynligheden for, at modellen forstår dine intentioner og leverer de oplysninger eller svar, du søger.

Tidsbesparelse: Mellemledere har ofte meget travlt og skal håndtere en bred vifte af opgaver og ansvarsområder. Ved at promte og kommunikere effektivt med en LLM, kan du spare tid og ressourcer, hvilket giver dig mulighed for at fokusere på andre vigtige aspekter af dit arbejde.

Hvad siger GPT selv
Når man spørger GPT, hvordan den gerne vil promptes til, svarer den – som forventet – at den er en AI-model, som ikke har personlige præferencer, men den vil gerne give os nogle generelle retningslinjer for at promte effektivt, når vi skal kommunikere med GPT eller andre AI-modeller. Her er derfor nogle tips, der kan hjælpe med at stille spørgsmål og give input, der kan resultere i mere præcise og nyttige svar:

  • Vær klar og præcis: Prøv at formulere dit spørgsmål eller input så klart og præcist som muligt. Dette gør det lettere for modellen at forstå din hensigt og give et relevant svar.
  • Giv kontekst: Hvis dit spørgsmål eller input kræver baggrundsoplysninger for at give et præcist svar, skal du inkludere disse oplysninger i din forespørgsel.
  • Undgå tvetydighed: Hvis dit spørgsmål eller input kan tolkes på flere måder, skal du prøve at gøre det så entydigt som muligt. AI-modeller kan have svært ved at afgøre, hvilken betydning du har til hensigt, hvis der er tvetydighed i din forespørgsel.
  • Stil specifikke spørgsmål: Jo mere specifik dit spørgsmål er, desto mere sandsynligt er det, at du får et præcist og brugbart svar. Generelle eller åbne spørgsmål kan resultere i svar, der er mindre relevante for dine behov.
  • Tålmodighed og justering: Hvis du ikke får det ønskede svar fra AI-modellen, skal du prøve at justere dit spørgsmål eller input og prøve igen. Det kan tage lidt tid at finde den rigtige formulering, der giver det bedste resultat.

Med andre ord er det altså vigtigt at huske på, at selvom AI-modeller som GPT-4 er meget avancerede, er de ikke perfekte, og de kan nemt give upræcise eller irrelevante svar. Det er op til os, som bruger LLM’erne at evaluere de svar, vi får, og justere vores kommunikation efter behov for at opnå de bedste resultater.

Share Button

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *