Code-Snippets mit LLMs generieren
Hintergrund
Dieser Prompt testet die Fähigkeiten eines LLM zur Codegenerierung, indem er dazu aufgefordert wird, den entsprechenden Code-Snippet zu generieren, gegeben die Details über das Programm durch einen Kommentar mit /* <Anweisung> */
.
Prompt
/*
Frage den Nutzer nach seinem Namen und sage "Hallo"
*/
Code / API
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="gpt-4",
messages=[
{
"role": "user",
"content": "/*\nAsk the user for their name and say \"Hello\"\n*/"
}
],
temperature=1,
max_tokens=1000,
top_p=1,
frequency_penalty=0,
presence_penalty=0
)
Referenz
- Prompt Engineering Guide (opens in a new tab) (16. März 2023)