Ir al contenido

Cómo Escribir Prompts que Funcionen

Estructura de un prompt efectivo con contexto, rol y formato especificado

Un prompt no es una pregunta. Es una secuencia de tokens que condiciona la distribución de probabilidades de todos los tokens que vienen después.

Cuando escribes un prompt, no le estás pidiendo algo a alguien. Estás construyendo el contexto estadístico que determina qué texto va a generar el modelo. La calidad de la salida depende directamente de la calidad de ese contexto.

La mayoría de guías de prompting que encuentras por internet te dicen cosas como “sé claro” o “da contexto” sin explicarte por qué. Aquí te explico el porqué desde la mecánica interna del modelo.

Un LLM predice el siguiente token basándose en todos los tokens anteriores. Eso significa que cada palabra que pones en tu prompt cambia la distribución de probabilidades de la respuesta.

Si escribes “dime algo sobre perros”, el modelo tiene un espacio enorme de posibles continuaciones. Puede hablar de razas, de comportamiento, de historia, de veterinaria, de memes. La probabilidad está repartida entre miles de direcciones posibles.

Si escribes “explica tres diferencias entre el pastor alemán y el golden retriever en términos de temperamento”, el espacio de continuaciones posibles se reduce drásticamente. Los tokens que tienen alta probabilidad son los que hablan de temperamento de esas dos razas específicas. El modelo no tiene que adivinar qué quieres.

Esto no es psicología. Es matemática. Más restricciones en el prompt significan una distribución de probabilidades más estrecha, lo que significa que los tokens de alta probabilidad están más alineados con lo que necesitas.

Primer principio: sé específico. No porque el modelo entienda mejor tus intenciones, sino porque una entrada específica produce logits más concentrados en los tokens relevantes. Cuanto más definido sea tu prompt, menos probabilidad hay de que el modelo se vaya por una tangente.

Segundo principio: da formato de salida. Si le dices “responde en formato JSON con los campos nombre, descripción y ejemplo”, el modelo genera tokens que siguen esa estructura porque ha visto millones de textos con ese formato durante el entrenamiento. El patrón está en sus parámetros. Solo necesitas activarlo.

Tercer principio: incluye ejemplos. Si le muestras un ejemplo de entrada y salida correcta, el modelo reproduce ese patrón para las siguientes entradas. Esto se llama few-shot prompting y funciona porque el mecanismo de atención copia patrones que ve en el contexto. El paper fundacional Language Models are Few-Shot Learners (Brown et al., 2020, GPT-3) demostró que los modelos grandes pueden aprender tareas con solo unos ejemplos.

Cuarto principio: pide razonamiento paso a paso. Cuando le dices “piensa paso a paso”, el modelo genera tokens intermedios de razonamiento antes de la respuesta final. Esos tokens intermedios actúan como contexto adicional que mejora la predicción de los tokens siguientes. Esto se llama chain of thought y está demostrado que mejora el rendimiento en tareas de razonamiento. Wei et al. documentaron este mecanismo en Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (2022).

Decir “por favor” o “sé amable” no cambia la calidad de la respuesta. Los tokens de cortesía no aportan información relevante para la predicción.

Repetir la misma instrucción cinco veces no la hace más efectiva. El mecanismo de atención pondera la relevancia, no la repetición.

Amenazar al modelo con consecuencias no hace nada. El modelo no tiene miedo. No tiene consecuencias. No tiene futuro. Solo tiene la distribución de probabilidades del siguiente token.

Decir “eres un experto en X” puede mejorar ligeramente la respuesta porque activa patrones de texto asociados con respuestas de expertos. Pero el efecto es menor de lo que la gente cree. Lo que realmente importa es la especificidad de la instrucción, no el rol que le asignes.

Una estructura de prompt efectiva tiene estos bloques:

Contexto: Información de fondo que el modelo necesita para responder bien. Documentos relevantes, datos específicos, restricciones del problema.

Instrucción: Qué quieres que haga, explicado de forma concreta. No interpreta. No infiere. No adivina intenciones ocultas.

Formato: Cómo quieres la salida. Lista, párrafos, JSON, tabla, código. Si no lo especificas, el modelo elige el formato que tiene mayor probabilidad según el contexto, que puede no ser el que necesitas.

Ejemplos: Uno o dos ejemplos de entrada y salida correcta. El mecanismo de atención los usa directamente como patrón a seguir.

Restricciones: Lo que no debe hacer. Si hay algo que no quieres en la respuesta, dilo explícitamente. El modelo no sabe lo que no quieres salvo que se lo digas.

Prompts más largos no son automáticamente mejores. Cada token adicional ocupa espacio en la ventana de contexto. Si metes información irrelevante, la atención del modelo se dispersa y puede producir peores resultados.

Además, como se documenta en el paper Lost in the Middle: How Language Models Use Long Contexts (Liu et al., 2023), la información que está en la parte central de un prompt largo tiene menos probabilidad de ser utilizada correctamente por el modelo. Si algo es crítico, ponlo al principio o al final.

Para que Uses el Prompt Correcto Según la Tarea

Sección titulada «Para que Uses el Prompt Correcto Según la Tarea»

Para tareas factuales: Usa temperatura baja y prompts concisos con la pregunta directa. No necesitas contexto creativo.

Para tareas creativas: Sube la temperatura y da más libertad en el prompt. Menos restricciones significan una distribución más amplia, lo que produce texto más variado.

Para tareas de análisis: Incluye los datos en el prompt y pide razonamiento paso a paso. Los tokens intermedios de razonamiento mejoran la predicción final.

Para tareas de extracción: Da el formato exacto de salida y un ejemplo. El modelo replicará el patrón del ejemplo.

El prompt no es una conversación con alguien. Es la construcción del contexto estadístico que determina los tokens de salida. Todo lo que pones en el prompt cambia las probabilidades. Nada de lo que piensas pero no escribes tiene ningún efecto.

El modelo no lee entre líneas. No interpreta subtexto. No asume lo que quieres decir. Solo ve tokens y calcula probabilidades. Si quieres algo, escríbelo. Si no lo escribes, no existe.

Para entender en profundidad por qué los modelos funcionan así: Un LLM no piensa.

  • Un prompt que especifica formato de salida (JSON, lista numerada) mejora drásticamente la consistencia.
  • Dar un ejemplo de entrada-salida correcta funciona mejor que explicar con palabras lo que quieres.
  • Los prompts muy largos con contexto irrelevante pueden empeorar los resultados por dilución de la atención.

Repetir la misma instrucción muchas veces pensando que el modelo “la tomará más en serio”. El mecanismo de atención no pondera por repetición.


¿Quieres ver prompts profesionales listos para usar? Explora nuestra Biblioteca de Prompts Profesionales con 40+ prompts verificados para ChatGPT, Claude y otras IAs.


Si te interesa entender las limitaciones reales de generar aplicaciones completas solo con prompts, puedes leer sobre lo que las demos de IA no muestran.