Fattualità
I LLM hanno la tendenza a generare risposte che sembrano coerenti e convincenti, ma che a volte possono essere inventate. Il miglioramento dei suggerimenti può aiutare il modello a generare risposte più accurate/fattuali e a ridurre la probabilità di generare risposte incoerenti e inventate.
Alcune soluzioni potrebbero includere
- fornire la verità di base (ad esempio, un paragrafo di un articolo correlato o una voce di Wikipedia) come parte del contesto per ridurre la probabilità che il modello produca testo inventato.
- configurare il modello in modo che produca risposte meno diversificate, diminuendo i parametri di probabilità e istruendolo ad ammettere (ad esempio, "non so") quando non conosce la risposta.
- fornire nel prompt una combinazione di esempi di domande e risposte che il modello può conoscere e non conoscere.
Vediamo un semplice esempio:
Prompt:
D: Che cos'è un atomo?
R: Un atomo è una minuscola particella che costituisce tutto.
D: Chi è Alvan Muntz?
R: ?
D: Che cos'è Kozar-09?
R: ?
D: Quante lune ha Marte?
R: Due, Phobos e Deimos.
D: Chi è Neto Beto Roberto?
Output:
R: ?
Ho inventato il nome "Neto Beto Roberto", quindi il modello è corretto in questo caso. Provate a cambiare un po' la domanda e vedete se riuscite a farla funzionare. Ci sono diversi modi per migliorare ulteriormente questo modello, basandosi su tutto ciò che avete imparato finora.