¿Qué es un LLM?
Un LLM (Large Language Model) es un modelo entrenado con grandes cantidades de texto
para predecir la siguiente parte del texto (sí: a ese nivel de “simple”),
pero esa habilidad le permite resumir, responder, transformar, generar y razonar con lenguaje.
Idea clave
Un LLM no “entiende” como humano: construye respuestas con patrones aprendidos y el contexto que le das.
Por eso, cómo pides (prompt) importa muchísimo.
Modelo mental rápido
- Entrada: tu prompt + contexto disponible.
- Proceso: predice tokens probables según patrones.
- Salida: texto que “parece” coherente (a veces demasiado 😅).
Tokens (sin misterio)
Los tokens son las “piezas” en las que el modelo parte el texto para procesarlo.
Un token puede ser una palabra completa, parte de una palabra, o incluso signos.
Tip práctico
Prompts más largos = más tokens usados. Y eso impacta: costo, latencia y espacio de contexto.
Ejemplo mini
Texto: "Explica tokens en 3 viñetas."
Tokens (aprox): ["Explica", " tokens", " en", " 3", " vi", "ñ", "etas", "."]
Nota: la tokenización exacta depende del modelo. Aquí lo importante es la idea.
Contexto y límites
El contexto es la cantidad de información que el modelo puede “ver” en una interacción:
tu mensaje, historial de conversación y (si aplica) documentos o herramientas.
Ojo con esto
Si el prompt + conversación superan el límite de contexto, el modelo “pierde” parte del historial
o se recorta información. Resultado: respuestas inconsistentes.
Cómo manejarlo (principiante-friendly)
- Resume: convierte historial largo en un resumen corto.
- Enfoca: incluye solo lo relevante para la tarea actual.
- Estructura: usa secciones y formato claro (lo verás en Sesión 2).
Limitaciones: alucinaciones y sesgos
Los LLMs pueden generar información incorrecta con mucha seguridad. A eso se le suele llamar
alucinación. También pueden reflejar sesgos presentes en datos de entrenamiento.
Alucinaciones
Respuestas inventadas o errores sutiles (fechas, citas, “datos”).
- Pide fuentes o evidencia
- Haz preguntas de verificación
- Usa casos de prueba
Sesgos
Tendencias injustas o estereotipos. No siempre son obvios.
- Revisa lenguaje y supuestos
- Incluye criterios de equidad
- Evalúa con ejemplos variados
Regla de oro
Si algo importa (decisiones, dinero, salud, reputación), no confíes ciegamente.
Usa el LLM como copiloto y valida.
Video: Introducción a la IA Generativa
Recomendación: mira el video y anota 2 ideas clave (tokens/contexto/límites).
Quiz interactivo
Objetivo: comprobar que entendiste tokens, contexto y limitaciones.
Experimenta con un LLM
Ahora vamos a practicar la estructura mínima. Copia y prueba este prompt:
Eres un tutor de IA. Explica qué son los tokens con:
1) 3 viñetas claras
2) 1 ejemplo corto
3) Un mini-quiz de 2 preguntas
Restricciones:
- No uses jerga innecesaria
- Si algo no es seguro, dilo
Tip
Cambia el “formato de salida” y mira cómo mejora la respuesta: tabla, checklist, pasos, etc.
Resumen (para que se te quede)
LLM
Predice tokens con base en patrones + contexto.
Tokens
“Piezas” del texto que usa el modelo (impactan costo/espacio).
Contexto
Memoria de la conversación en la interacción (tiene límite).
Siguiente paso
En la Sesión 2 vas a aprender la “anatomía de un prompt”:
instrucciones, restricciones, formato y criterios (la base para prompts PRO).