Metodologías: Cómo preguntar a la IA
La calidad de las respuestas de un modelo depende en gran medida de la calidad del prompt. ASPECCT es una forma simple y potente de estructurar lo que pides para obtener resultados consistentes.
Qué es ASPECCT
- A — Audiencia: define para quién es la salida.
- S — Style (Estilo): tono y registro (técnico, mentor, formal…).
- P — Purpose (Propósito): objetivo claro de la tarea.
- E — Examples (Ejemplos): entradas/salidas de referencia.
- C — Constraints (Restricciones): límites de palabras, formato, prohibiciones.
- Cxt — Context (Contexto): lo que el modelo debe saber del dominio/situación.
- T — Type of Output (Tipo de salida): formato esperado (lista, tabla, JSON, Markdown).
Para muestra un botón
Prompt Final:
” Escribe una lista breve (T) que explique los beneficios de serverless (P) para CTOs de startups (A) usando un tono conciso y técnico (S). Debe tener menos de 80 palabras y usar viñetas (C). Contexto: estamos preparando documentación interna para desarrolladores sin experiencia con AWS (Cxt).”
¿Es buena la metodología ASPECCT?
ASPECCT encapsula principios de prompting ampliamente recomendados por la industria: dar instrucciones claras y específicas, aportar contexto, mostrar ejemplos y fijar un formato de salida.
Estas prácticas están alineadas con las guías oficiales de las compañías que se dedican a general modelos:
- OpenAI: guías de prompting y mejores prácticas (instrucciones claras, descomponer tareas, dar ejemplos y formato de salida).
- Anthropic: estrategias de prompting (rol/persona, restricciones, contexto, formato y razonamiento paso a paso cuando conviene).
- Google (Gemini): diseño de prompts con objetivos, contexto, ejemplos y formato de respuesta.
No hay evidencias independientes de que un único marco supere a los demás en todos los casos; ASPECCT es sólido porque cubre los elementos que más influyen en la calidad de la respuesta, y es fácil de aplicar de forma consistente.
Otras alternativas
Como en todo y en especial cunado estmoas al principio de estas nueva era existen otras alternativas también muy válidas.
-
CO-STAR (Context, Objective, Style, Tone, Audience, Response): equivalente funcionalmente a ASPECCT con énfasis explícito en tono y en la forma de respuesta. Útil cuando el branding/voz es crucial.
-
CRISPE: variantes populares ponen foco en restricciones, rol/persona, entradas de usuario, pasos y ejemplos. Útil para tareas operativas repetibles con checklist estricto.
-
Buenas prácticas de proveedor (OpenAI, Anthropic, Google): combinan los mismos principios con recomendaciones tácticas (p. ej., dividir problemas, usar ejemplos, pedir formato estructurado).
-
En problemas de razonamiento, es recomendable añadir técnicas como “razonamiento paso a paso” o “descomposición en subtareas”.
-
En outputs estructurados, especifica esquema y validación (p. ej., JSON estrictamente tipado).
Una aproximación a la creación del prompt
- Completa la checklist ASPECCT antes de escribir el prompt.
- Redacta un primer borrador.
- Pide el resultado en el formato exacto (Type of Output) y dentro de los límites (Constraints).
- Itera con 1–2 ejemplos (Examples) si la salida no cumple.
- Refuerza propósito, audiencia y estilo si notas deriva.
Bibliografía y referencias
- OpenAI — Best practices for prompt engineering: platform.openai.com/docs/guides/prompt-engineering
- Anthropic — Prompt engineering overview (Claude): docs.anthropic.com/…/prompt-engineering/overview
- Google — Writing effective prompts (Workspace/Gemini): workspace.google.com/resources/ai/writing-effective-prompts
- Microsoft Learn — Prompt engineering (Azure OpenAI): learn.microsoft.com/…/prompt-engineering
- Prompt Engineering Guide (DAIR.AI): promptingguide.ai
- Marco CO-STAR (introducción y ejemplos prácticos): writesonic.com/blog/costar-framework