Come lavorare con qualsiasi IA generativa
Passare da ChatGPT a Claude, a Gemini, a Grok, o a qualsiasi modello open source, non dovrebbe significare dover reimparare come fare il prompt, cosa fidarsi e cosa è sicuro delegare. Sotto il cofano condividono le stesse poche caratteristiche, e le stesse poche abitudini portano buoni risultati da tutti loro.
Anthropic insegna entrambi in due corsi gratuiti su Skilljar, AI Capabilities and Limitations e AI Fluency Framework Foundations. Le caratteristiche sono nel vocabolario ML da anni, e le abitudini sono ciò che i buoni prompt engineer hanno sempre fatto.
Come funzionano realmente le LLM conversazionali
Ogni LLM conversazionale ha le stesse poche proprietà sotto il cofano. Nomina quella che ti ha appena morso e la soluzione di solito segue.
- Predizione del token successivo. Il modello indovina il pezzo di testo successivo da ciò che è venuto prima. Non sta cercando nulla. Tratta l'output come una bozza, verifica tutto ciò che conta.
- Conoscenza. Il modello sa solo ciò su cui è stato addestrato, e solo approssimativamente. Per qualsiasi cosa recente, di nicchia o privata, incolla la fonte invece di chiedere al modello di ricordarla.
- Memoria di lavoro. Le finestre di contesto sono finite. Non caricare interi repository. Ritaglia, riassumi o dividi in blocchi prima di incollare, ed evita di seppellire contenuti importanti nel mezzo di prompt lunghi.
- Guidabilità. I modelli rispondono a istruzioni chiare, esempi e struttura. Se l'output è sbagliato, correggi prima l'input. Mostra al modello come appare un buon risultato.
- Quando le proprietà collidono. Un punto di forza in un contesto diventa una debolezza in un altro. Fai attenzione ai prompt che chiedono creatività e un formato rigoroso allo stesso tempo; il modello di solito devierà su uno per servire l'altro.
Nominare quale proprietà è andata storta (il modello ha dimenticato il prompt di sistema, ha inventato una funzione, ha ignorato il formato) ti dice quale leva tirare dopo.
Le 4D, un modo per lavorare con qualsiasi AI
I professori Rick Dakan (Ringling College) e Joseph Feller (University College Cork) hanno costruito l'AI Fluency Framework attorno a quattro abitudini, le 4D.
- Delega. Decidi cosa delegare e cosa fare tu stesso. Qualsiasi cosa che richieda un giudizio reale, un contesto nascosto o fatti che il modello non può verificare è solitamente una scelta sbagliata, indipendentemente dallo strumento che usi.
- Descrizione. Dì al modello cosa vuoi, chiaramente. Formato, esempi, a chi è rivolto, cosa saltare. I buoni prompt funzionano ovunque.
- Discernimento. Leggi la risposta con occhio critico. Ogni modello può sbagliare con piena sicurezza. Il corso accoppia Descrizione e Discernimento come un ciclo: chiedi, controlli, chiedi di nuovo.
- Diligence (Diligenza). Assumiti la responsabilità di ciò che pubblichi. Controlla i fatti, rispetta la privacy, dì quando l'AI ha aiutato. È così che dovresti lavorare, non una caratteristica di un singolo strumento.
Perché questo batte il dibattito sui provider
Scommettere su "sono bravo nei prompt di ChatGPT" o "conosco i trucchi di Claude" significa dover reimparare metà delle cose ogni volta che il tuo team cambia strumento. La classifica si rimescola ogni pochi mesi. Le caratteristiche e le 4D no, continuano a ripagare ad ogni rilascio.
Entrambi i corsi sono gratuiti e brevi. Seguilili in ordine, prima Capabilities, poi Fluency.