ULTERIORI INFORMAZIONI SUL few-shot prompting
ULTERIORI INFORMAZIONI SUL few-shot prompting
Poche istruzioni nella traduzione automatica
significa dare al modello una manciata di frasi di esempio parallele (sorgente
+ destinazione) all'interno del prompt, quindi chiedergli di tradurre una nuova
frase nello stesso modo.
Modello di base
In pratica, un few-shot MT in genere si
presenta così:
- Diverse brevi frasi di origine, ciascuna immediatamente seguita
dalla sua traduzione corretta (I “shots”).
- Una nuova frase di origine finale, seguita da una riga di
destinazione vuota che il modello deve completare.
Scheletro esemplificativo (EN→IT):
- “Inglese: The meeting was postponed. Italiano: la riunione è stata
rinviata.
- “Inglese: The claim was denied. Italiano: la richiesta è stata
respinta.
- "Inglese: The policy expires on 31 December. Italiano: la
polizza scade il 31 dicembre.
- Inglese: [nuova frase sorgente]. Italiano: [uscita modalità
qui]." Italiano: [model output here].”
Il modello deduce il modello di traduzione, il
dominio, lo stile e persino la formattazione dagli esempi e li applica alla
nuova frase.
Come viene applicato nella ricerca
Il recente lavoro di MT con LLM tratta un LLM
congelato e generale come traduttore e studia in che modo diverse
configurazioni di few shots influiscono sulla qualità:
- I ricercatori definiscono un modello di prompt che specifica le
etichette della lingua (ad esempio, "[Inglese]: ... [Cinese]: ...")
e dove vengono inseriti gli esempi.
- Variano il numero di "shots" (ad esempio, 1, 5, 10, 20
esempi) e mostrano che più esempi di alta qualità di solito migliorano i
punteggi BLEU/COMETA, fino a un certo punto.
- Testano diverse strategie di selezione per le coppie di esempi
(casuali vs semanticamente simili vs abbinati al dominio) e scoprono che
esempi semanticamente e stilisticamente simili funzionano meglio di quelli
casuali.
Comments
Post a Comment