Cómo trabajar con cualquier IA generativa
Cambiar de ChatGPT a Claude, a Gemini, a Grok o a cualquier modelo de código abierto no debería implicar reaprender cómo dar instrucciones, en qué confiar y qué se puede delegar de forma segura. Internamente, comparten el mismo puñado de características, y los mismos pocos hábitos dan buenos resultados con todos ellos.
Anthropic enseña ambos en dos cursos gratuitos de Skilljar, AI Capabilities and Limitations y AI Fluency Framework Foundations. Las características han sido vocabulario de ML durante años, y los hábitos son lo que los buenos creadores de prompts han hecho siempre.
Cómo funcionan realmente los LLM de chat
Cada LLM de chat tiene el mismo puñado de propiedades internas. Nombra el que te acaba de fallar y la solución suele seguir.
- Predicción del siguiente token. El modelo adivina el siguiente fragmento de texto a partir de lo anterior. No está buscando nada. Trata la salida como un borrador, verifica cualquier cosa que importe.
- Conocimiento. El modelo solo sabe lo que se usó para entrenarlo, y solo de forma aproximada. Para cualquier cosa reciente, nicho o privada, pega la fuente en lugar de pedirle al modelo que la recuerde.
- Memoria de trabajo. Las ventanas de contexto son finitas. No envíes repositorios enteros. Recorta, resume o divide antes de pegar, y evita enterrar contenido importante en medio de prompts largos.
- Direccionalidad. Los modelos responden a instrucciones claras, ejemplos y estructura. Si la salida es incorrecta, primero corrige la entrada. Muestra al modelo cómo se ve algo bueno.
- Cuando las propiedades colisionan. Una fortaleza en un entorno se convierte en una debilidad en otro. Presta atención a los prompts que piden creatividad y formato estricto al mismo tiempo; el modelo generalmente se desviará en uno para servir al otro.
Nombrar qué propiedad falló (el modelo olvidó el prompt del sistema, inventó una función, ignoró el formato) te dice qué palanca mover a continuación.
Las 4D, una forma de trabajar con cualquier IA
Los profesores Rick Dakan (Ringling College) y Joseph Feller (University College Cork) construyeron el AI Fluency Framework en torno a cuatro hábitos, las 4D.
- Delegación. Decide qué delegar y qué hacer tú mismo. Cualquier cosa que requiera juicio real, contexto oculto o hechos que el modelo no pueda verificar suele ser una mala opción, sin importar la herramienta que uses.
- Descripción. Dile al modelo lo que quieres, claramente. Formato, ejemplos, para quién es, qué omitir. Los buenos prompts funcionan en todas partes.
- Discernimiento. Lee la respuesta con ojo crítico. Cada modelo puede equivocarse con total confianza. El curso empareja Descripción y Discernimiento como un bucle: preguntas, verificas, preguntas de nuevo.
- Diligencia. Hazte responsable de lo que entregas. Verifica los hechos, respeta la privacidad, di cuándo la IA ayudó. Así es como deberías trabajar, no es una característica de ninguna herramienta en particular.
Por qué esto supera el debate sobre proveedores
Apostar por "Soy bueno en prompts de ChatGPT" o "Conozco los trucos de Claude" significa reaprender la mitad cada vez que tu equipo cambia de herramienta. La tabla de clasificación se baraja cada pocos meses. Las características y las 4D no lo hacen, siguen dando frutos en cada lanzamiento.
Ambos cursos son gratuitos y cortos. Tómalos en orden, Capabilities primero, Fluency segundo.