Nivel Principiante Sesión 1 20–30 min

Introducción a Generative AI y LLMs

Vas a entender qué es un LLM, qué son tokens, cómo funciona el contexto y cuáles son sus limitaciones. Al final, practicas con un editor de prompts y haces un quiz.

Modelo mental
Ejemplos claros
Quiz + editor

¿Qué es un LLM?

Un LLM (Large Language Model) es un modelo entrenado con grandes cantidades de texto para predecir la siguiente parte del texto (sí: a ese nivel de “simple”), pero esa habilidad le permite resumir, responder, transformar, generar y razonar con lenguaje.

Idea clave

Un LLM no “entiende” como humano: construye respuestas con patrones aprendidos y el contexto que le das. Por eso, cómo pides (prompt) importa muchísimo.

Modelo mental rápido

  • Entrada: tu prompt + contexto disponible.
  • Proceso: predice tokens probables según patrones.
  • Salida: texto que “parece” coherente (a veces demasiado 😅).

Tokens (sin misterio)

Los tokens son las “piezas” en las que el modelo parte el texto para procesarlo. Un token puede ser una palabra completa, parte de una palabra, o incluso signos.

Tip práctico

Prompts más largos = más tokens usados. Y eso impacta: costo, latencia y espacio de contexto.

Ejemplo mini

Texto: "Explica tokens en 3 viñetas."
Tokens (aprox): ["Explica", " tokens", " en", " 3", " vi", "ñ", "etas", "."]

Nota: la tokenización exacta depende del modelo. Aquí lo importante es la idea.

Contexto y límites

El contexto es la cantidad de información que el modelo puede “ver” en una interacción: tu mensaje, historial de conversación y (si aplica) documentos o herramientas.

Ojo con esto

Si el prompt + conversación superan el límite de contexto, el modelo “pierde” parte del historial o se recorta información. Resultado: respuestas inconsistentes.

Cómo manejarlo (principiante-friendly)

  1. Resume: convierte historial largo en un resumen corto.
  2. Enfoca: incluye solo lo relevante para la tarea actual.
  3. Estructura: usa secciones y formato claro (lo verás en Sesión 2).

Limitaciones: alucinaciones y sesgos

Los LLMs pueden generar información incorrecta con mucha seguridad. A eso se le suele llamar alucinación. También pueden reflejar sesgos presentes en datos de entrenamiento.

Alucinaciones

Respuestas inventadas o errores sutiles (fechas, citas, “datos”).

  • Pide fuentes o evidencia
  • Haz preguntas de verificación
  • Usa casos de prueba

Sesgos

Tendencias injustas o estereotipos. No siempre son obvios.

  • Revisa lenguaje y supuestos
  • Incluye criterios de equidad
  • Evalúa con ejemplos variados

Regla de oro

Si algo importa (decisiones, dinero, salud, reputación), no confíes ciegamente. Usa el LLM como copiloto y valida.

Video: Introducción a la IA Generativa

Recomendación: mira el video y anota 2 ideas clave (tokens/contexto/límites).

Quiz interactivo

Objetivo: comprobar que entendiste tokens, contexto y limitaciones.

Experimenta con un LLM

Ahora vamos a practicar la estructura mínima. Copia y prueba este prompt:

Eres un tutor de IA. Explica qué son los tokens con:
1) 3 viñetas claras
2) 1 ejemplo corto
3) Un mini-quiz de 2 preguntas

Restricciones:
- No uses jerga innecesaria
- Si algo no es seguro, dilo

Tip

Cambia el “formato de salida” y mira cómo mejora la respuesta: tabla, checklist, pasos, etc.

Resumen (para que se te quede)

LLM

Predice tokens con base en patrones + contexto.

Tokens

“Piezas” del texto que usa el modelo (impactan costo/espacio).

Contexto

Memoria de la conversación en la interacción (tiene límite).

Siguiente paso

En la Sesión 2 vas a aprender la “anatomía de un prompt”: instrucciones, restricciones, formato y criterios (la base para prompts PRO).

¿Terminaste el quiz?

Marca la sesión como completada para actualizar tu progreso.

Siguiente: Sesión 2