El uso de herramientas como ChatGPT o Gemini se volvió cotidiano. Sin embargo, la mayoría de los usuarios todavía no sabe aprovecharlas: según un relevamiento difundido por Santiago Bilinkis, cerca del 95% las utiliza como si fueran un buscador tradicional.
En ese contexto, la forma en que se escribe un prompt —la instrucción que se le da a la IA— se vuelve clave para transformar una consulta básica en una herramienta de alto rendimiento. Desde UFLO Universidad, especialistas en inteligencia artificial aplicada advierten que la diferencia entre una respuesta superficial y una útil no está en la herramienta, sino en cómo se la usa.
Qué hay detrás de la respuesta
Antes de pensar cómo escribir un buen prompt, es necesario entender qué hace realmente la IA. Los modelos de lenguaje —conocidos como LLMs— no “piensan” ni comprenden como una persona. “Los modelos no piensan, sino que predicen la siguiente palabra más probable basándose en probabilidades estadísticas”, explicó Paula Urabayen, docente e investigadora en IA de UFLO Universidad.
Este funcionamiento tiene una consecuencia directa: la IA puede sonar convincente incluso cuando se equivoca. Por eso, el usuario no solo debe saber preguntar, sino también evaluar críticamente las respuestas.
El error más común: preguntar mal
Uno de los problemas más extendidos es la falta de precisión. Pedidos vagos generan respuestas genéricas. En cambio, cuanto más específica es la instrucción, mejor es el resultado. “Cuanto más concreta sea la indicación, mejor optimizada va a resultar la respuesta”, señaló Urabayen. Además, la especialista introduce un punto clave: no existe una única forma de escribir prompts. “Debemos tener en cuenta que no hay un único método para la implementación de prompts, siempre va a depender de la intención del usuario, el contexto y finalidad del uso de la herramienta”, explicó. Y agregó: “Tenemos que posicionarnos desde un rol activo y crítico ante el chat, evaluando las respuestas, los sesgos y posibles alucinaciones”.
Cinco claves para mejorar cómo usás la IA
Desde UFLO proponen una estructura inicial para ordenar los pedidos y mejorar la calidad de las respuestas. No es una fórmula cerrada, pero funciona como guía práctica.
1. Definir un rol: quién responde importa
Indicarle a la IA desde qué lugar debe responder cambia el resultado. No es lo mismo pedir una explicación general que solicitarla “como docente universitario”, “como periodista” o “como especialista técnico”. El rol condiciona el nivel de profundidad, el tipo de lenguaje y el enfoque. Es una de las formas más rápidas de mejorar la calidad de una respuesta sin agregar complejidad.
2. Ser preciso con la acción: qué queres que haga
El verbo no es un detalle: determina el tipo de respuesta. “Explicar”, “resumir”, “comparar”, “analizar” o “redactar” activan procesos distintos dentro del modelo.
Uno de los errores más comunes es hacer pedidos abiertos o ambiguos —como “hablame de…”—, que suelen derivar en respuestas superficiales o poco enfocadas. En cambio, cuando la acción está bien definida, la IA puede ajustar mejor la estructura, la profundidad y el enfoque del contenido.
No es lo mismo pedir una descripción general que solicitar un análisis comparativo o una síntesis en puntos clave. Esa precisión inicial es la que ordena toda la respuesta.
3. Sumar contexto: para quién y con qué objetivo
Es el factor más determinante para evitar respuestas genéricas. La IA funciona mejor cuando entiende el marco del pedido: quién es el destinatario, para qué se va a usar el contenido y bajo qué condiciones debe producirse.
Incluir datos como público objetivo, extensión, formato o enfoque temático permite orientar la respuesta desde el inicio. Sin ese contexto, el modelo tiende a ofrecer salidas estándar. Con contexto, en cambio, puede ajustar nivel, profundidad y relevancia.
No es lo mismo pedir “un texto sobre cambio climático” que solicitar un artículo periodístico de determinada extensión, con enfoque local y orientado a un público específico. Esa diferencia define la calidad del resultado.
4. Ajustar el tono: cómo querés que suene
El tono no siempre es imprescindible, pero cuando se explicita, mejora notablemente la calidad final. Permite alinear el contenido con el canal y el objetivo: no es lo mismo escribir para redes sociales que para un informe técnico o una nota periodística.
Se puede indicar un tono formal, técnico, divulgativo o incluso creativo. Este ajuste impacta directamente en el estilo, el vocabulario y la forma en que se organiza la información.
Cuando el contenido tiene un destino claro, definir el tono deja de ser un detalle y pasa a ser una variable estratégica.
5. Iterar y evaluar: el paso que marca la diferencia
El uso eficiente de la IA no termina en la primera respuesta. De hecho, ese es uno de los errores más frecuentes: tomar el primer resultado como definitivo.
Trabajar con estos modelos implica un proceso iterativo: revisar, detectar imprecisiones, ajustar el prompt y volver a preguntar. Cada interacción mejora la calidad del resultado.
Urabayen lo plantea en términos claros: el usuario debe asumir un rol activo y crítico, evaluando la información, identificando posibles errores o sesgos y refinando sus indicaciones. La IA no es automática; funciona mejor cuando hay intervención consciente del usuario.
Una estructura para empezar
Como punto de partida, los especialistas proponen una fórmula simple: Rol + Acción + Detalles + Tono. Este esquema permite ordenar la instrucción y obtener respuestas más útiles desde el primer intento. Aun así, su aplicación depende del contexto y del objetivo de cada usuario.
De herramienta básica a ventaja competitiva
El verdadero diferencial en el uso de la inteligencia artificial no está en acceder a estas plataformas, sino en saber utilizarlas. Mientras la mayoría las emplea como un buscador, quienes dominan el prompting logran automatizar tareas, mejorar procesos y producir contenido de mayor calidad en menos tiempo.
En palabras de Urubayen: “La diferencia no está en la IA. Está en la pregunta”




