Términos de IA explicados sin jerga
No necesitas entender las matemáticas detrás de la IA para usarla bien. Pero sí necesitas entender el vocabulario, porque los términos siguen apareciendo — en descripciones de productos, páginas de precios, blogs y conversaciones con gente que asume que ya sabes qué significan.
Este no es un glosario de manual. Cada término obtiene una definición en lenguaje claro, una analogía que realmente ayuda y un ejemplo concreto. Sin jerga para explicar la jerga.
Los conceptos centrales
Un asistente muy leído. Un LLM ha sido entrenado en miles de millones de páginas de texto — libros, artículos, sitios web, código, conversaciones — y ha aprendido los patrones del lenguaje lo suficientemente bien como para generar nuevo texto que suena humano. No “sabe” cosas como tú. Predice la palabra siguiente más probable, una y otra vez, increíblemente rápido. Pero el resultado es tan bueno que la diferencia es a menudo académica.
Un trozo de palabra. La IA no lee palabras como tú — descompone el texto en “tokens”, que son trozos que pueden ser una palabra completa, parte de una palabra o incluso un solo carácter. Palabras comunes como “hola” son usualmente un token. Palabras más largas se dividen: “extraordinario” se convierte en unos 3 tokens. Regla general: 1 token ≈ 0,75 palabras, o unos 4 caracteres.
La ventana de contexto es la cantidad total de texto que la IA puede mantener en su memoria de trabajo durante una conversación. Todo lo que has dicho, todo lo que ha dicho, más cualquier documento que hayas pegado — todo tiene que caber en la ventana de contexto. Una vez que la conversación excede la ventana, la IA empieza a “olvidar” las partes más tempranas.
Tus instrucciones a la IA. Un prompt puede ser tan simple como “¿cuál es la capital de Francia?” o tan complejo como un conjunto de instrucciones de varios párrafos con ejemplos, restricciones y requisitos de formato. La calidad de tu prompt es el mayor factor en la calidad de la respuesta.
Cómo piensa la IA (más o menos)
Cuando un modelo de IA procesa tu prompt y genera una salida, eso se llama inferencia. El modelo mismo fue entrenado una vez (lo que toma semanas o meses y millones de dólares). Cada vez que lo usas después, está haciendo inferencia — aplicando lo que aprendió a tu entrada específica. Piensa en el entrenamiento como ir a la escuela, y en la inferencia como dar el examen.
Un parámetro (usualmente 0 a 1) que controla qué tan predecibles o creativas son las respuestas de la IA. A temperatura 0, la IA siempre elige la siguiente palabra más probable — confiable, consistente, a veces aburrida. A temperatura 1, introduce aleatoriedad, eligiendo palabras menos obvias, llevando a salida más creativa y variada. Piensa en ella como un deslizador entre “contador estricto” y “músico de jazz”.
Una alucinación de IA es cuando el modelo genera información que suena autoritativa y plausible pero está completamente fabricada. No está mintiendo (no tiene intención) — está prediciendo cómo se ve un texto que suena plausible, y a veces esa predicción no corresponde con la realidad. Citas falsas, estadísticas inventadas, URLs inexistentes y afirmaciones factuales confiadas-pero-incorrectas son todas alucinaciones.
Haciendo la IA más inteligente
Tomar un LLM pre-entrenado y entrenarlo más en un conjunto de datos especializado para que se vuelva mejor en una tarea específica. El modelo base ya sabe lenguaje; el fine-tuning le enseña los patrones particulares de tu dominio. Es como contratar a alguien generalmente inteligente y luego darle capacitación especializada en el trabajo.
En vez de depender solo de lo que el modelo aprendió durante el entrenamiento, el RAG deja que la IA busque a través de un conjunto específico de documentos antes de responder. Recupera información relevante primero, luego genera una respuesta basada en lo que encontró. Esto reduce dramáticamente las alucinaciones para preguntas factuales porque la IA trabaja desde material fuente real, no solo desde su memoria.
Un embedding convierte un trozo de texto en una lista de números (un “vector”) que captura su significado. Textos similares obtienen números similares. Esto deja que la IA haga búsqueda semántica — encontrar documentos que son sobre el mismo tema, incluso si usan palabras completamente diferentes. Es la tecnología que impulsa el RAG, los sistemas de recomendación y la búsqueda inteligente.
El lado del negocio
La organización que entrena, aloja y sirve el modelo de IA. Cuando usas Claude, el proveedor es Anthropic. Cuando usas GPT-4, el proveedor es OpenAI. Cuando usas Gemini, es Google. Los proveedores poseen el modelo, ejecutan las GPUs y establecen los precios. Algunos proveedores hacen sus propios modelos (Anthropic, Google); otros alojan modelos hechos por diferentes equipos (Together.ai, Fireworks).
Una empresa que no hace funcionar su propia IA sino que construye un producto sobre la API de alguien más. Algunos wrappers agregan valor genuino — mejores interfaces, funciones de facturación, acceso multi-proveedor. Otros solo revenden acceso a API con un margen y un logo. La pregunta clave es: ¿qué valor agrega el wrapper? Si la respuesta es “ninguno”, solo estás pagando extra.
En vez de pagar el precio con margen de una plataforma, obtienes tu propia clave API directamente del proveedor (como Anthropic u OpenAI) y la conectas a la plataforma. Pagas al proveedor directamente a sus tarifas mayoristas, y la plataforma solo proporciona la interfaz. Es como llevar tus propios ingredientes a un restaurante que cobra una tarifa de cocción en vez del precio completo de la comida.
Multimodal & más allá del texto
Una IA multimodal puede procesar y generar múltiples tipos de contenido: texto, imágenes, audio, video o código. La IA temprana era solo texto — escribías, ella escribía de vuelta. Los modelos multimodales modernos pueden mirar una imagen y describirla, escuchar audio y transcribirlo, o tomar una descripción de texto y generar una imagen. La tendencia es hacia modelos que manejen todo.
Una forma estándar de conectar modelos de IA a herramientas y fuentes de datos externas. En vez de solo chatear, la IA puede buscar en la web, consultar bases de datos, leer archivos, ejecutar código, llamar APIs y tomar acciones en el mundo real. MCP define cómo funcionan estas conexiones para que cualquier herramienta compatible funcione con cualquier modelo compatible. Piensa en ello como USB para IA — un enchufe universal que te deja conectar cualquier herramienta.
Referencia rápida
LLM = el cerebro IA • Token = su unidad de medida • Ventana de contexto = su memoria de trabajo • Prompt = tus instrucciones • Inferencia = la IA pensando • Temperatura = dial de creatividad • Alucinación = ficción con confianza • Fine-tuning = entrenamiento especializado • RAG = darle material de referencia • Embedding = significado en números • Proveedor = quien lo hace funcionar • Wrapper = intermediario • BYOK = tus claves, su interfaz • Multimodal = más allá del texto • MCP = IA + herramientas reales
Ese es el vocabulario. No necesitas memorizarlo todo de una vez — vuelve a esta página cuando encuentres un término del que no estés seguro. El objetivo no es sonar inteligente en conversaciones sobre IA. Es entender lo que compras, lo que usas y de qué hablan realmente las personas que te venden herramientas de IA.
¿Quieres ver estos conceptos en acción? Zubnet pone 361+ modelos de 61 proveedores en un solo lugar — con soporte BYOK, comparación multi-modelo y precios transparentes.