Comment travailler avec n'importe quelle IA générative
Passer de ChatGPT à Claude, à Gemini, à Grok, ou à tout modèle open source, ne devrait pas signifier réapprendre à formuler des requêtes, à quoi faire confiance et ce qu'il est sûr de déléguer. Sous le capot, ils partagent la même poignée de traits, et les mêmes quelques habitudes donnent de bons résultats avec tous.
Anthropic enseigne les deux dans deux cours Skilljar gratuits, AI Capabilities and Limitations et AI Fluency Framework Foundations. Les traits sont du vocabulaire ML depuis des années, et les habitudes sont ce que les bons rédacteurs de prompts ont toujours fait.
Comment les LLM de chat fonctionnent réellement
Chaque LLM de chat a la même poignée de propriétés sous le capot. Nommez celui qui vient de vous mordre et la solution suit généralement.
- Prédiction du prochain token. Le modèle devine le prochain morceau de texte à partir de ce qui précède. Il ne cherche rien. Traitez la sortie comme un brouillon, vérifiez tout ce qui compte.
- Connaissances. Le modèle ne sait que ce sur quoi il a été entraîné, et seulement approximativement. Pour tout ce qui est récent, de niche ou privé, collez la source au lieu de demander au modèle de s'en souvenir.
- Mémoire de travail. Les fenêtres de contexte sont limitées. Ne déversez pas des dépôts entiers. Coupez, résumez ou segmentez avant de coller, et évitez d'enterrer le contenu important au milieu de longs prompts.
- Pilotabilité. Les modèles répondent à des instructions claires, des exemples et une structure. Si la sortie est incorrecte, corrigez d'abord l'entrée. Montrez au modèle à quoi ressemble un bon résultat.
- Quand les propriétés entrent en collision. Une force dans un contexte devient une faiblesse dans un autre. Surveillez les prompts qui demandent à la fois de la créativité et un format strict, le modèle dérivera généralement sur l'un pour servir l'autre.
Nommer quelle propriété a mal tourné (le modèle a oublié le prompt système, il a inventé une fonction, il a ignoré le format) vous indique quel levier actionner ensuite.
Les 4D, une façon de travailler avec n'importe quelle IA
Les professeurs Rick Dakan (Ringling College) et Joseph Feller (University College Cork) ont construit le AI Fluency Framework autour de quatre habitudes, les 4D.
- Délégation. Décidez de ce que vous déléguez et de ce que vous faites vous-même. Tout ce qui nécessite un jugement réel, un contexte caché ou des faits que le modèle ne peut pas vérifier est généralement une mauvaise option, quel que soit l'outil que vous utilisez.
- Description. Dites au modèle ce que vous voulez, clairement. Format, exemples, à qui s'adresser, quoi ignorer. Les bons prompts fonctionnent partout.
- Discernement. Lisez la réponse avec un œil critique. Chaque modèle peut se tromper avec une confiance totale. Le cours associe Description et Discernement en boucle : vous demandez, vous vérifiez, vous demandez à nouveau.
- Diligence. Assumez ce que vous livrez. Vérifiez les faits, respectez la vie privée, indiquez quand l'IA a aidé. C'est ainsi que vous devriez travailler, pas une fonctionnalité d'un outil particulier.
Pourquoi cela surpasse le débat sur les fournisseurs
Miser sur "Je suis bon pour les prompts ChatGPT" ou "Je connais les astuces de Claude" signifie réapprendre la moitié à chaque fois que votre équipe change d'outil. Le classement change tous les quelques mois. Les traits et les 4D ne changent pas, ils continuent de rapporter à chaque nouvelle version.
Les deux cours sont gratuits et courts. Suivez-les dans l'ordre, Capabilities d'abord, Fluency ensuite.