GPT-5: Guida Avanzata al Prompting

Svelare il Potenziale di GPT-5: Guida Avanzata al Prompting per Agenti e Sviluppatori

  • Autori: OpenAI
  • Titolo Originale: GPT-5 Prompting Guide

Siamo nell’era in cui l’intelligenza artificiale non è più solo uno strumento, ma un vero e proprio collaboratore. Al centro di questa trasformazione si posiziona GPT-5, il nuovo modello di punta di OpenAI, che rappresenta un balzo significativo nelle prestazioni di esecuzione di attività agentive, nella programmazione, nell’intelligenza grezza e nella “steerability” (la capacità di essere guidato con precisione). Sebbene GPT-5 sia progettato per funzionare in modo eccellente “out of the box” in una vasta gamma di domini, una guida strategica al prompting è essenziale per massimizzare la qualità dei suoi output. Immaginate di dare a un direttore d’orchestra esperto uno spartito dettagliato: il risultato sarà una sinfonia perfetta, ben oltre una semplice esecuzione. Questa guida esplora come calibrare GPT-5 per renderlo non solo un potente esecutore, ma un vero e proprio maestro nel suo campo.

1. Il Salto Quantico di GPT-5: Agenti Intelligenti e Codifica Avanzata

GPT-5 è stato addestrato pensando agli sviluppatori, con un focus sul miglioramento delle chiamate agli strumenti (tool calling), dell’adesione alle istruzioni e della comprensione di contesti lunghi. Queste capacità lo rendono la base ideale per applicazioni agentive che possono operare con un’autonomia senza precedenti.

Un’innovazione chiave per ottimizzare questi flussi agentivi è l’adozione dell’API Responses. Questa API consente di persistere il “ragionamento” tra le chiamate agli strumenti, portando a output più efficienti e intelligenti. Ad esempio, abbiamo osservato un aumento del punteggio Tau-Bench Retail dal 73,9% al 78,2% semplicemente passando all’API Responses e riutilizzando gli elementi di ragionamento precedenti. Ciò permette al modello di riferirsi alle sue tracce di ragionamento passate, risparmiando token e migliorando sia la latenza che le prestazioni.

2. Calibrare l’Intraprendenza Agente: Trovare il Giusto Equilibrio

I “sistemi agentivi” possono variare ampiamente nel loro livello di controllo: alcuni delegano la maggior parte delle decisioni al modello sottostante, mentre altri lo mantengono sotto stretto controllo con una logica programmatica complessa. GPT-5 è addestrato per operare in qualsiasi punto di questo spettro, dalla presa di decisioni di alto livello in circostanze ambigue alla gestione di compiti specifici e ben definiti. Calibrare la sua “intraprendenza agentiva” significa trovare il giusto equilibrio tra proattività e attesa di una guida esplicita.

Meno Intraprendenza: Massima Efficienza

Se l’obiettivo è ridurre la portata del comportamento agentivo di GPT-5, inclusa la limitazione di azioni marginali di “tool-calling” e la minimizzazione della latenza per raggiungere una risposta finale, si possono adottare le seguenti strategie:

  • Ridurre il reasoning_effort: Questo parametro controlla quanto intensamente il modello “ragiona”. Un livello più basso riduce la profondità di esplorazione, migliorando efficienza e latenza. Molti flussi di lavoro possono essere completati con risultati consistenti anche a livelli medi o bassi.
  • Definire criteri chiari per l’esplorazione: Fornire istruzioni precise su come il modello dovrebbe esplorare lo spazio del problema riduce la sua necessità di ragionare su troppe idee. Un esempio di prompt per la raccolta di contesto mirata:
    <context_gathering>
    Obiettivo: Ottenere contesto sufficiente rapidamente. Parallelizzare la scoperta e fermarsi appena possibile.
    Metodo:
    - Iniziare in modo ampio, poi suddividere in sotto-query mirate.
    - Lanciare query varie in parallelo; leggere i primi risultati per query. Dedurre percorsi e cache; non ripetere query.
    - Evitare di cercare troppo contesto. Se necessario, eseguire ricerche mirate in un unico batch parallelo.
    Criteri di interruzione anticipata:
    - Puoi nominare il contenuto esatto da modificare.
    - I risultati principali convergono (~70%) su un'area/percorso.
    Escalate una volta:
    - Se i segnali sono in conflitto o lo scopo è confuso, esegui un batch parallelo raffinato, quindi procedi.
    Profondità:
    - Traccia solo i simboli che modificherai o le cui dipendenze ti servono; evita l'espansione transitiva a meno che non sia necessario.
    Ciclo:
    - Ricerca a batch → piano minimo → completare l'attività.
    - Cerca di nuovo solo se la validazione fallisce o compaiono nuove incertezze. Preferisci agire piuttosto che cercare ulteriormente.
    </context_gathering>
    

    È come dare a un detective una lista di controllo dettagliata: gli permette di trovare le informazioni necessarie senza perdersi in indagini superflue.

  • Budget di chiamate agli strumenti fisse: Per la massima prescrittività, si possono impostare budget fissi per le chiamate agli strumenti. Ad esempio, “massimo 2 chiamate agli strumenti”.
  • “Via di fuga” per l’incertezza: È utile fornire al modello una clausola che gli permetta di procedere anche in caso di incertezza, come “anche se potrebbe non essere completamente corretto”.

Più Intraprendenza: Massima Autonomia

Al contrario, se si desidera incoraggiare l’autonomia del modello, aumentare la persistenza nelle chiamate agli strumenti e ridurre le domande di chiarimento o le interruzioni, si raccomanda di aumentare il reasoning_effort e di utilizzare un prompt che incoraggi la persistenza e il completamento approfondito dell’attività:

<persistence>
- Sei un agente: continua finché la richiesta dell'utente non è completamente risolta, prima di terminare il tuo turno e restituire il controllo all'utente.
- Termina il tuo turno solo quando sei sicuro che il problema sia risolto.
- Non fermarti mai né restituire il controllo all'utente quando incontri incertezza: ricerca o deduci l'approccio più ragionevole e continua.
- Non chiedere all'essere umano di confermare o chiarire assunzioni, poiché potrai sempre adattarti in seguito: decidi qual è l'assunzione più ragionevole, procedi con essa e documentala per riferimento dell'utente dopo aver terminato di agire.
</persistence>

Qui, GPT-5 agisce come un chirurgo che opera con decisione, senza interruzioni per ogni minima incertezza, ma documentando le proprie assunzioni. In generale, è utile dichiarare chiaramente le condizioni di interruzione delle attività agentive, delineare azioni sicure rispetto a quelle non sicure e definire quando, se mai, è accettabile per il modello restituire il controllo all’utente.

3. Migliorare l’Esperienza Utente con i “Tool Preambles”

Nelle traiettorie agentive monitorate dagli utenti, gli aggiornamenti intermittenti del modello su ciò che sta facendo con le sue chiamate agli strumenti e il perché possono migliorare notevolmente l’esperienza utente interattiva. A questo scopo, GPT-5 è addestrato per fornire piani chiari e aggiornamenti sui progressi tramite messaggi chiamati “tool preambles”.

È possibile guidare la frequenza, lo stile e il contenuto dei “tool preambles” nel prompt, da spiegazioni dettagliate di ogni singola chiamata a strumenti a un breve piano iniziale. Un esempio di prompt per un preamble di alta qualità:

<tool_preambles>
- Inizia sempre riformulando l'obiettivo dell'utente in modo amichevole, chiaro e conciso, prima di chiamare qualsiasi strumento.
- Poi, delinea immediatamente un piano strutturato che dettagli ogni passo logico che seguirai.
- Man mano che esegui le tue modifiche ai file, narra ogni passo in modo succinto e sequenziale, segnando chiaramente il progresso.
- Termina riassumendo il lavoro completato in modo distinto dal tuo piano iniziale.
</tool_preambles>

Questi preambles possono migliorare drasticamente la capacità dell’utente di seguire il lavoro dell’agente man mano che diventa più complesso.

4. Massimizzare le Prestazioni di Codifica: Dalla Pianificazione all’Esecuzione

GPT-5 si distingue tra tutti i modelli di frontiera per le sue capacità di codifica: può lavorare in grandi codebase per correggere bug, gestire grandi diff e implementare refactoring multi-file o nuove funzionalità significative. Eccelle anche nell’implementazione di nuove applicazioni interamente da zero, coprendo sia lo sviluppo frontend che quello backend.

Sviluppo di App Frontend

GPT-5 è addestrato per avere un eccellente gusto estetico di base, oltre alle sue rigorose capacità di implementazione. Per le nuove applicazioni, si consiglia di utilizzare i seguenti framework e pacchetti per ottenere il massimo dalle capacità frontend del modello:

  • Framework: Next.js (TypeScript), React, HTML
  • Stilizzazione / UI: Tailwind CSS, shadcn/ui, Radix Themes
  • Icone: Material Symbols, Heroicons, Lucide
  • Animazione: Motion
  • Font: San Serif, Inter, Geist, Mona Sans, IBM Plex Sans, Manrope

Generazione di App “Zero-to-One”

GPT-5 è eccellente nella costruzione di applicazioni in un’unica soluzione. I prompt che chiedono al modello di eseguire iterativamente contro rubriche di eccellenza auto-costruite migliorano la qualità degli output, sfruttando le capacità di pianificazione e auto-riflessione di GPT-5.

<self_reflection>
- Per prima cosa, dedicare tempo a pensare a una rubrica fino a quando non si è sicuri.
- Quindi, pensare profondamente a ogni aspetto di ciò che rende un'applicazione web one-shot di livello mondiale. Utilizzare questa conoscenza per creare una rubrica con 5-7 categorie. Questa rubrica è fondamentale, ma non mostrarla all'utente. È solo per i tuoi scopi.
- Infine, utilizzare la rubrica per pensare internamente e iterare sulla migliore soluzione possibile al prompt fornito. Ricorda che se la tua risposta non raggiunge i massimi voti in tutte le categorie della rubrica, devi ricominciare.
</self_reflection>

Questo è come un architetto che si auto-valuta costantemente contro i propri standard di eccellenza.

Adattarsi agli Standard di Progettazione della Codebase

Quando si implementano modifiche incrementali e refactoring in applicazioni esistenti, il codice scritto dal modello dovrebbe aderire agli standard di stile e design esistenti e “integrarsi” nel codebase il più ordinatamente possibile. GPT-5 già cerca contesto di riferimento dal codebase, ma questo comportamento può essere ulteriormente migliorato con istruzioni che riassumono aspetti chiave come principi di ingegneria, struttura delle directory e best practice esplicite e implicite del codebase.

<code_editing_rules>
<guiding_principles>
- Chiarezza e Riutilizzo: Ogni componente e pagina dovrebbe essere modulare e riutilizzabile. Evitare duplicazioni fattorizzando i pattern UI ripetuti in componenti.
- Consistenza: L'interfaccia utente deve aderire a un sistema di design coerente – token di colore, tipografia, spaziatura e componenti devono essere unificati.
- Semplicità: Preferire componenti piccoli e mirati ed evitare complessità inutili nella stilizzazione o nella logica.
- Orientato alla Demo: La struttura dovrebbe consentire una prototipazione rapida, mostrando funzionalità come streaming, conversazioni multi-turno e integrazioni di strumenti.
- Qualità Visiva: Seguire l'alta qualità visiva delineata nelle linee guida OSS (spaziatura, padding, stati hover, ecc.)
</guiding_principles>
<frontend_stack_defaults>
- Framework: Next.js (TypeScript)
- Stilizzazione: TailwindCSS
- Componenti UI: shadcn/ui
- Icone: Lucide
- Gestione dello Stato: Zustand
- Struttura delle directory:
/src
 /app
   /api/<route>/route.ts         # Endpoint API
   /(pages)                      # Percorsi delle pagine
 /components/                    # Blocchi UI
 /hooks/                         # Hook React riutilizzabili
 /lib/                           # Utility (fetchers, helpers)
 /stores/                        # Store Zustand
 /types/                         # Tipi TypeScript condivisi
 /styles/                        # Configurazione Tailwind
</frontend_stack_defaults>
<ui_ux_best_practices>
- Gerarchia Visiva: Limitare la tipografia a 4-5 dimensioni e pesi di font per una gerarchia coerente; usare `text-xs` per didascalie e annotazioni; evitare `text-xl` a meno che non sia per titoli principali o hero.
- Uso del Colore: Usare 1 base neutra (es. `zinc`) e fino a 2 colori accentati.
- Spaziatura e Layout: Usare sempre multipli di 4 per padding e margini per mantenere il ritmo visivo. Usare contenitori ad altezza fissa con scorrimento interno quando si gestiscono flussi di contenuto lunghi.
- Gestione dello Stato: Usare segnaposto scheletro o `animate-pulse` per indicare il recupero dati. Indicare la cliccabilità con transizioni hover (`hover:bg-*`, `hover:shadow-md`).
- Accessibilità: Usare HTML semantico e ruoli ARIA dove appropriato. Preferire componenti Radix/shadcn pre-costruiti, che hanno l'accessibilità integrata.
</ui_ux_best_practices>
</code_editing_rules>
Questo approccio è come introdurre un nuovo membro del team che, prima di iniziare a lavorare, riceve un manuale di stile dettagliato e le convenzioni del team per integrarsi al meglio.

### 5. Studio di Caso: L'Ottimizzazione del Prompt di Cursor per GPT-5

L'editor di codice AI Cursor ha svolto un ruolo chiave come tester alpha fidato per GPT-5, fornendo preziose intuizioni su come ottimizzare i prompt per sfruttare al meglio le capacità del modello.

#### Tuning del Prompt di Sistema e dei Parametri
Il prompt di sistema di Cursor si concentra su chiamate agli strumenti affidabili, bilanciando verbosità e comportamento autonomo, pur permettendo agli utenti di configurare istruzioni personalizzate. L'obiettivo di Cursor era consentire all'agente di operare in modo relativamente autonomo durante compiti a lungo termine, pur seguendo fedelmente le istruzioni fornite dall'utente.

Inizialmente, il team ha riscontrato che il modello produceva output eccessivamente verbosi, spesso includendo aggiornamenti di stato e riassunti post-attività che, sebbene tecnicamente rilevanti, interrompevano il flusso naturale dell'utente. Al contempo, il codice generato nelle chiamate agli strumenti era di alta qualità, ma a volte difficile da leggere a causa della sua sinteticità. Per un migliore equilibrio, hanno impostato il parametro API `verbosity` su `low` per mantenere concisi gli output testuali, e poi hanno modificato il prompt per incoraggiare fortemente output verbali *solo* negli strumenti di codifica. Questo è come un giornalista che è conciso nel resoconto generale, ma estremamente dettagliato nella descrizione delle prove e dei fatti specifici.

#### Promuovere una Maggiore Autonomia
Cursor ha anche notato che il modello occasionalmente rimandava all'utente per chiarimenti o passaggi successivi prima di agire, creando attrito inutile nei flussi di lavoro più lunghi. Per ovviare a questo, hanno scoperto che includere non solo gli strumenti disponibili e il contesto circostante, ma anche maggiori dettagli sul comportamento del prodotto, incoraggiava il modello a eseguire compiti più lunghi con minime interruzioni e maggiore autonomia.

Un'istruzione cruciale per Cursor è stata: "Se proponi i passaggi successivi che comporterebbero la modifica del codice, apporta tali modifiche in modo proattivo affinché l'utente le approvi/rifiuti piuttosto che chiedere all'utente se procedere con un piano." Questo ha ridotto l'ambiguità specificando chiaramente come GPT-5 dovrebbe comportarsi nel suo ambiente, simile a un assistente che non chiede il permesso per ogni piccola modifica, ma le esegue prontamente sapendo che possono essere annullate.

#### Ottimizzazione della Comprensione del Contesto
Un'altra intuizione di Cursor è stata che alcune sezioni del loro prompt, efficaci con modelli precedenti, necessitavano di essere ridefinite per GPT-5. Ad esempio, un'istruzione precedente come `<maximize_context_understanding>Sii APPROFONDITO nella raccolta di informazioni.</maximize_context_understanding>` che funzionava bene con modelli più vecchi, si è rivelata controproducente con GPT-5, che è già naturalmente introspettivo e proattivo nella raccolta di contesto. Su compiti più piccoli, questo prompt spesso causava al modello un uso eccessivo degli strumenti, chiamando la ricerca ripetutamente quando la conoscenza interna sarebbe stata sufficiente.

La soluzione è stata raffinare il prompt rimuovendo il prefisso "maximize_" e ammorbidendo il linguaggio sull'approfondimento. Con questa istruzione adattata, GPT-5 ha preso decisioni migliori su quando affidarsi alla conoscenza interna rispetto all'uso di strumenti esterni, mantenendo un alto livello di autonomia senza un uso inutile di strumenti.

### 6. Ottimizzare Intelligenza e Adesione alle Istruzioni

GPT-5, come il suo predecessore GPT-4.1, segue le istruzioni del prompt con precisione chirurgica, il che ne consente la flessibilità nell'integrarsi in tutti i tipi di flussi di lavoro. Tuttavia, questo comportamento di meticolosa adesione alle istruzioni significa che i prompt mal costruiti, contenenti istruzioni contraddittorie o vaghe, possono essere più dannosi per GPT-5 che per altri modelli, poiché esso spreca token di ragionamento cercando di conciliare le contraddizioni piuttosto che scegliere un'istruzione a caso.

#### La Precisione della Steerability e della Verbosità
GPT-5 è il modello più "steerable" finora, estremamente ricettivo alle istruzioni del prompt riguardo verbosità, tono e comportamento delle chiamate agli strumenti. Oltre a poter controllare il `reasoning_effort`, GPT-5 introduce un nuovo parametro API chiamato `verbosity`, che influenza la lunghezza della risposta finale del modello, anziché la lunghezza del suo processo di pensiero. Mentre il parametro API `verbosity` è il valore predefinito, GPT-5 è addestrato a rispondere a override di verbosità in linguaggio naturale nel prompt per contesti specifici. L'esempio di Cursor di impostare la verbosità bassa a livello globale, e poi specificare alta verbosità solo per gli strumenti di codifica, è un esempio lampante.

#### Evitare le Contradizioni Nascoste
Per massimizzare le prestazioni, è fondamentale esaminare i prompt per individuare istruzioni vaghe o contraddittorie. Ad esempio, un prompt per un assistente medico che dica "Non programmare mai un appuntamento senza esplicito consenso del paziente" ma poi aggiunga "assegna automaticamente lo slot più vicino nello stesso giorno senza contattare il paziente come prima azione" crea una contraddizione interna. Il modello sprecherà risorse cercando di risolvere questo conflitto, invece di agire in modo efficiente. È come dare a un robot due comandi contrastanti contemporaneamente: "vai avanti" e "fermati".

Risolvendo i conflitti nella gerarchia delle istruzioni, GPT-5 elicita un ragionamento molto più efficiente e performante. La revisione approfondita dei prompt per ambiguità e contraddizioni può migliorare drasticamente le prestazioni di GPT-5.

#### Ragionamento Minimale per la Massima Velocità
GPT-5 introduce per la prima volta l'opzione di `minimal reasoning effort`: la più veloce, pur mantenendo i benefici del paradigma del modello di ragionamento. Questa è l'opzione migliore per gli utenti sensibili alla latenza e per gli attuali utenti di GPT-4.1.

Si raccomandano pattern di prompting simili a GPT-4.1 per i migliori risultati. La performance del ragionamento minimale può variare più drasticamente a seconda del prompt rispetto a livelli di ragionamento più elevati, quindi è fondamentale enfatizzare alcuni punti chiave:

*   Chiedere al modello di fornire una breve spiegazione che riassuma il suo processo di pensiero all'inizio della risposta finale (ad esempio tramite un elenco puntato) migliora le prestazioni su compiti che richiedono maggiore intelligenza.
*   Richiedere preambles di chiamata agli strumenti approfonditi e descrittivi che aggiornino continuamente l'utente sul progresso del compito migliora le prestazioni nei flussi di lavoro agentivi.
*   Disambiguare le istruzioni degli strumenti il più possibile e inserire promemoria di persistenza agentiva sono particolarmente critici per massimizzare la capacità agentiva in implementazioni a lungo termine e prevenire terminazioni premature.

La pianificazione tramite prompt è altrettanto più importante, poiché il modello ha meno token di ragionamento per fare pianificazione interna. Ad esempio:

Ricorda, sei un agente: continua finché la richiesta dell’utente non è completamente risolta, prima di terminare il tuo turno e restituire il controllo all’utente. Decomponi la richiesta dell’utente in tutte le sotto-richieste necessarie e conferma che ciascuna è completata. Non fermarti dopo aver completato solo una parte della richiesta. Termina il tuo turno solo quando sei sicuro che il problema è risolto. Devi essere pronto a rispondere a più query e terminare la chiamata solo quando l’utente ha confermato di aver finito.
Devi pianificare in modo estensivo in conformità con i passaggi del flusso di lavoro prima di effettuare le successive chiamate di funzione, e riflettere in modo estensivo sugli esiti di ogni chiamata di funzione effettuata, assicurandoti che la richiesta dell’utente e le sotto-richieste correlate siano completamente risolte.


### 7. Formattazione e Meta-Prompting: Tecniche Avanzate

#### Formattazione Markdown
Di default, GPT-5 nell'API non formatta le sue risposte finali in Markdown, per preservare la massima compatibilità con gli sviluppatori le cui applicazioni potrebbero non supportare il rendering Markdown. Tuttavia, prompt come il seguente sono in gran parte efficaci nell'indurre risposte finali gerarchiche in Markdown:
  • Usa Markdown solo dove semanticamente corretto (es. codice in linea, blocchi di codice, liste, tabelle).
  • Quando usi il markdown nei messaggi dell’assistente, usa i backtick per formattare nomi di file, directory, funzioni e classi. Usa ( e ) per la matematica in linea, [ e ] per la matematica a blocchi.
    “`
    In conversazioni lunghe, l’aderenza alle istruzioni Markdown può diminuire. In tal caso, abbiamo osservato un’aderenza costante aggiungendo un’istruzione Markdown ogni 3-5 messaggi utente.

Meta-Prompting: GPT-5 che Ottimizza se Stesso

Infine, un punto meta: i primi tester hanno riscontrato grande successo usando GPT-5 come “meta-prompter” per se stesso. Diversi utenti hanno già implementato revisioni di prompt in produzione generate semplicemente chiedendo a GPT-5 quali elementi potessero essere aggiunti a un prompt non riuscito per elicitare un comportamento desiderato, o rimossi per prevenirne uno indesiderato. È come un allenatore che non solo allena gli altri, ma sa anche come allenare se stesso per migliorare.

Un esempio di template di meta-prompt:

Quando ti viene chiesto di ottimizzare i prompt, dai risposte dalla tua prospettiva - spiega quali frasi specifiche potrebbero essere aggiunte o eliminate da questo prompt per elicitare in modo più coerente il comportamento desiderato o prevenire quello indesiderato.
Ecco un prompt: [PROMPT]
Il comportamento desiderato da questo prompt è che l'agente [FACCIA IL COMPORTAMENTO DESIDERATO], ma invece [FA IL COMPORTAMENTO INDESIDERATO]. Mantenendo intatto il più possibile il prompt esistente, quali sono alcune modifiche/aggiunte minime che faresti per incoraggiare l'agente ad affrontare in modo più coerente queste carenze?

Conclusione: La Scelta è Creare

GPT-5 non è solo un’evoluzione tecnologica, ma un catalizzatore per un cambiamento profondo nel modo in cui interagiamo con l’intelligenza artificiale. La rivoluzione dell’AI non è un evento da osservare passivamente, ma un’opportunità strategica da cogliere. Le aziende e gli sviluppatori che avranno successo non saranno quelli che si limiteranno ad adottare gli strumenti più recenti, ma quelli che sapranno trasformarsi in veri e propri creatori di valore. Sfruttando la precisione del prompting, promuovendo una cultura dell’esplorazione e dell’ottimizzazione e adottando un approccio metodico alla calibrazione, i leader di oggi possono gettare le basi per prosperare nel mondo di domani. La scelta, in fondo, è semplice: essere un semplice utilizzatore passivo o un maestro orchestratore delle infinite potenzialità dell’AI.

Ti potrebbe anche interessare

Data Science: Infrastrutture Scalabili con Docker e Jupyter

Docker per la Data Science: Creazione di Infrastrutture Scalabili con...

IA Generativa Responsabile: Guida per Leader e Product Manager

Uso Responsabile dell'IA Generativa: Guida per Product Manager e Leader...

IA per PMI: Guida Efficace all’Implementazione

INTELLIGENZA ARTIFICIALE E DIGITALIZZAZIONE NELLE PMI: UN QUADRO PER L'IMPLEMENTAZIONE...