Cos’è un prompt per le intelligenze artificiali?
Un prompt è un input in linguaggio naturale dato a un modello linguistico per generare una risposta. Può consistere in domande, istruzioni, contesto, esempi (few-shot) o input incompleti. In base al prompt e al tipo di modello, l’output può essere testo, codice, embedding, immagini, video, musica o altro.
Come si crea un prompt efficace?
In un dialogo tra due persone una buona risposta non dipende solo dall’interlocutore a cui la ponete ma, in prima battuta, è condizionata dalla qualità della domanda di partenza.
Questo concetto è basilare quando si parla di prompt e di intelligenze artificiali (sì, al plurale, perché ce ne sono tantissime e molto differenti tra loro).
La progettazione dei prompt è il processo tramite cui si generano domande o input che, a loro volta, producono la risposta (auspicabilmente…) desiderata dai LLM (Large Language Models). Il processo iterativo per aggiornare ripetutamente i prompt e valutare le risposte del modello è quindi definito prompt engineering.
Molti modelli di AI sovente funzionano molto bene anche senza la necessità di stimolarli con prompt particolarmente complessi: per compiti semplici si ottengono buoni risultati anche con una semplice domanda.
Tuttavia, per le attività particolari e sfaccettate, la progettazione di un prompt efficace è ancora in grado di fare la differenza
Istruzioni di sistema (o system prompt)
- Cosa sono: pensa a queste come a direttive generali o “regole del gioco” che imposti prima ancora di dare la tua istruzione specifica. Non fanno parte della tua domanda diretta, ma definiscono il comportamento generale, la personalità o i vincoli che l’LLM deve rispettare durante l’interazione.
- A cosa servono: sono utilissime per dare un “ruolo” al modello (es. “Sei un esperto copywriter specializzato in linguaggio persuasivo”), definire uno stile di risposta (es. “Rispondi sempre in modo formale e conciso”, “Usa un tono amichevole e colloquiale”), stabilire limiti (es. “Non superare le 300 parole”, “Evita linguaggio tecnico”) o imporre regole specifiche (es. “Basa le tue risposte solo sulle informazioni fornite nel contesto”).
- Perché usarle: aiutano a garantire coerenza e controllo sul modo in cui il modello risponde, specialmente per compiti complessi o interazioni lunghe. Non sempre necessarie, ma potenti per personalizzare l’output generale.
Esempi few-shot:
- Cosa sono: letteralmente “pochi esempi”. Si tratta di fornire al modello, direttamente nel prompt, 2-5 esempi concreti che mostrano esattamente come vuoi che esegua il compito. Ogni esempio di solito include un input e l’output desiderato corrispondente.
- A cosa servono: servono per “insegnare al volo” al modello il formato, lo stile, o il tipo di ragionamento che ti aspetti. Sono incredibilmente efficaci per compiti come: estrazione di dati specifici, risposte in un formato strutturato (es. JSON, tabelle), classificazione di testi secondo tue categorie, traduzioni con uno stile particolare, ecc.
- Perché usarle: quando la tua istruzione richiede un output molto specifico o un pattern preciso, mostrare degli esempi è spesso più efficace che descriverlo solo a parole. Aiutano l’LLM a capire il compito in modo inequivocabile e a ridurre errori o ambiguità. Fondamentali per task di precisione.
- CASO REALE
Fornisci una risposta seguendo gli esempi forniti:
La somma dei numeri dispari in questo gruppo dà un numero pari: 4, 8, 9, 15, 12, 2, 1.
Risposta: la risposta è Falso.La somma dei numeri dispari in questo gruppo dà un numero pari: 17, 10, 19, 4, 8, 12, 24.
Risposta: la risposta è Vero.La somma dei numeri dispari in questo gruppo dà un numero pari: 16, 11, 14, 4, 8, 13, 24.
Risposta: la risposta è Vero.La somma dei numeri dispari in questo gruppo dà un numero pari: 17, 9, 10, 12, 13, 4, 2.
Risposta: la risposta è Falso.La somma dei numeri dispari in questo gruppo dà un numero pari: 15, 32, 5, 13, 82, 7, 1.
Risposta:…
Informazioni contestuali (spesso cruciali):
- Cosa sono: si tratta di fornire all’LLM tutto il background, i dati specifici, i fatti o le informazioni necessarie per poter comprendere ed eseguire correttamente la tua istruzione attuale. Può essere un testo da analizzare, dati numerici, dettagli su un cliente, la parte precedente di una conversazione, ecc.
- A cosa servono: gli LLM hanno una conoscenza generale vasta, ma non conoscono i dettagli specifici della tua situazione o del tuo documento, a meno che tu non glieli fornisca. Il contesto dà al modello le informazioni specifiche su cui lavorare.
- Perché usarle: Se la tua istruzione dipende da informazioni specifiche (es. “Riassumi il documento allegato”, “Scrivi una risposta a questa email”, “Analizza questi dati di vendita”), fornire il contesto è essenziale. Omettendolo, l’LLM non potrà eseguire il compito o darà risposte generiche, inventate o irrilevanti. Anche se tecnicamente “facoltativa” (non serve per domande generiche tipo “Chi era Napoleone?”), diventa fondamentale per quasi tutte le applicazioni pratiche e specifiche.
Includere queste componenti (quando appropriato) trasforma un prompt da una semplice domanda a un’istruzione ben definita, aumentando drasticamente la probabilità di ottenere dall’LLM esattamente ciò che ti serve.
>> AI search