Factualidade
Os LLMs tendem a gerar respostas que soam coerentes e convincentes, mas às vezes podem ser inventadas. Melhorar os prompts pode ajudar a melhorar o modelo para gerar respostas mais precisas/factuais e reduzir a probabilidade de gerar respostas inconsistentes e inventadas.
Algumas soluções podem incluir:
- fornecer informações básicas (por exemplo, parágrafo de artigo relacionado ou entrada da Wikipedia) como parte do contexto para reduzir a probabilidade de o modelo produzir texto inventado.
- configurar o modelo para produzir respostas menos diversificadas diminuindo os parâmetros de probabilidade e instruindo-o a admitir (por exemplo, "não sei") quando não souber a resposta.
- fornecer no prompt uma combinação de exemplos de perguntas e respostas que ele pode conhecer e não saber
Vejamos um exemplo simples:
Prompt:
Q: O que é um átomo?
A: Um átomo é uma pequena partícula que compõe tudo.
Q: Quem é Alvan Muntz?
A: ?
Q: O que é Kozar-09?
A: ? P:
Q: Quantas luas Marte tem?
A: Dois, Fobos e Deimos.
A: Quem é Neto Beto Roberto?
Saída:
A: ?
Inventei o nome "Neto Beto Roberto" para que o modelo fique correto neste caso. Tente mudar um pouco a pergunta e veja se consegue fazê-la funcionar. Existem diferentes maneiras de melhorar isso ainda mais com base em tudo o que você aprendeu até agora.