Principiante

Términos de IA explicados sin jerga

La industria de la IA ama sus acrónimos y términos técnicos. Aquí tienes cada término que realmente necesitas conocer, explicado en lenguaje claro con ejemplos reales. Guarda esta página en favoritos.
Sarah Chen 19 de marzo de 2026 12 min de lectura

No necesitas entender las matemáticas detrás de la IA para usarla bien. Pero sí necesitas entender el vocabulario, porque los términos siguen apareciendo — en descripciones de productos, páginas de precios, blogs y conversaciones con gente que asume que ya sabes qué significan.

Este no es un glosario de manual. Cada término obtiene una definición en lenguaje claro, una analogía que realmente ayuda y un ejemplo concreto. Sin jerga para explicar la jerga.

Los conceptos centrales

Lo que la gente quiere decir cuando dice “IA” en la mayoría de conversaciones

Un asistente muy leído. Un LLM ha sido entrenado en miles de millones de páginas de texto — libros, artículos, sitios web, código, conversaciones — y ha aprendido los patrones del lenguaje lo suficientemente bien como para generar nuevo texto que suena humano. No “sabe” cosas como tú. Predice la palabra siguiente más probable, una y otra vez, increíblemente rápido. Pero el resultado es tan bueno que la diferencia es a menudo académica.

Ejemplo: Claude, GPT-4, Gemini, DeepSeek y Llama son todos LLMs. Cuando chateas con una IA, estás hablando con un LLM.
Token
La unidad que la IA usa para medir texto — no del todo una palabra, no del todo una letra

Un trozo de palabra. La IA no lee palabras como tú — descompone el texto en “tokens”, que son trozos que pueden ser una palabra completa, parte de una palabra o incluso un solo carácter. Palabras comunes como “hola” son usualmente un token. Palabras más largas se dividen: “extraordinario” se convierte en unos 3 tokens. Regla general: 1 token ≈ 0,75 palabras, o unos 4 caracteres.

Por qué importa: el precio de IA es por token. Cuando un modelo cuesta “3 $ por millón de tokens de entrada”, son unos 3 $ por 750 000 palabras — aproximadamente la longitud de 5 novelas. Las ventanas de contexto también se miden en tokens.
Ventana de contexto
Cuánto puede “ver” la IA de una vez

La ventana de contexto es la cantidad total de texto que la IA puede mantener en su memoria de trabajo durante una conversación. Todo lo que has dicho, todo lo que ha dicho, más cualquier documento que hayas pegado — todo tiene que caber en la ventana de contexto. Una vez que la conversación excede la ventana, la IA empieza a “olvidar” las partes más tempranas.

Escala: 8K tokens ≈ un post de blog largo. 32K ≈ una novela corta. 128K ≈ un libro de 300 páginas. 1M tokens (disponible en algunos modelos Gemini y Claude) ≈ unas 5 novelas gruesas. Más contexto significa que la IA puede trabajar con documentos más largos sin perder el hilo.
Prompt
Lo que escribes a la IA

Tus instrucciones a la IA. Un prompt puede ser tan simple como “¿cuál es la capital de Francia?” o tan complejo como un conjunto de instrucciones de varios párrafos con ejemplos, restricciones y requisitos de formato. La calidad de tu prompt es el mayor factor en la calidad de la respuesta.

Ejemplo: “Escribe un correo profesional declinando una reunión” es un prompt. También lo es “Eres un nutricionista experto. Basado en los siguientes resultados de sangre, sugiere cambios dietéticos. Sé específico y cita tu razonamiento.”

Cómo piensa la IA (más o menos)

Inferencia
La IA pensando y generando una respuesta

Cuando un modelo de IA procesa tu prompt y genera una salida, eso se llama inferencia. El modelo mismo fue entrenado una vez (lo que toma semanas o meses y millones de dólares). Cada vez que lo usas después, está haciendo inferencia — aplicando lo que aprendió a tu entrada específica. Piensa en el entrenamiento como ir a la escuela, y en la inferencia como dar el examen.

Por qué importa: la inferencia es lo que pagas. Una inferencia más rápida significa respuestas más rápidas. Los “costes de inferencia” son el gasto continuo de hacer funcionar la IA, a diferencia del coste único de entrenamiento.
Temperatura
El dial de creatividad

Un parámetro (usualmente 0 a 1) que controla qué tan predecibles o creativas son las respuestas de la IA. A temperatura 0, la IA siempre elige la siguiente palabra más probable — confiable, consistente, a veces aburrida. A temperatura 1, introduce aleatoriedad, eligiendo palabras menos obvias, llevando a salida más creativa y variada. Piensa en ella como un deslizador entre “contador estricto” y “músico de jazz”.

Guía práctica: usa temperatura baja (0-0,3) para código, extracción de datos y preguntas y respuestas factuales. Usa temperatura más alta (0,7-1,0) para escritura creativa, lluvia de ideas y generación de opciones diversas.
Hallucination
Cuando la IA inventa cosas con confianza

Una alucinación de IA es cuando el modelo genera información que suena autoritativa y plausible pero está completamente fabricada. No está mintiendo (no tiene intención) — está prediciendo cómo se ve un texto que suena plausible, y a veces esa predicción no corresponde con la realidad. Citas falsas, estadísticas inventadas, URLs inexistentes y afirmaciones factuales confiadas-pero-incorrectas son todas alucinaciones.

Ejemplo: pides el autor de un paper específico. La IA responde con un nombre de autor, revista y año que suenan reales — pero el paper no existe. Esto pasa con cada modelo. Siempre verifica las afirmaciones que importan.

Haciendo la IA más inteligente

Fine-tuning
Enseñar nuevos trucos a un modelo existente

Tomar un LLM pre-entrenado y entrenarlo más en un conjunto de datos especializado para que se vuelva mejor en una tarea específica. El modelo base ya sabe lenguaje; el fine-tuning le enseña los patrones particulares de tu dominio. Es como contratar a alguien generalmente inteligente y luego darle capacitación especializada en el trabajo.

Ejemplo: un bufete de abogados fine-tunea un modelo en miles de escritos legales para que escriba en estilo legal apropiado y entienda convenciones de jurisprudencia. El modelo no aprende derecho desde cero — adapta lo que ya sabe.
Darle a la IA un libro de referencia para consultar

En vez de depender solo de lo que el modelo aprendió durante el entrenamiento, el RAG deja que la IA busque a través de un conjunto específico de documentos antes de responder. Recupera información relevante primero, luego genera una respuesta basada en lo que encontró. Esto reduce dramáticamente las alucinaciones para preguntas factuales porque la IA trabaja desde material fuente real, no solo desde su memoria.

Ejemplo: subes el manual de RRHH de tu empresa. Cuando preguntas “¿cuál es nuestra política de licencia parental?”, la IA busca en el manual, encuentra la sección relevante y responde basada en el documento real — no en una suposición.
Embedding
Convertir texto en números para que la IA pueda buscar y comparar

Un embedding convierte un trozo de texto en una lista de números (un “vector”) que captura su significado. Textos similares obtienen números similares. Esto deja que la IA haga búsqueda semántica — encontrar documentos que son sobre el mismo tema, incluso si usan palabras completamente diferentes. Es la tecnología que impulsa el RAG, los sistemas de recomendación y la búsqueda inteligente.

Ejemplo: las oraciones “¿cómo devuelvo un producto?” y “¿cuál es su política de reembolso?” usan palabras diferentes pero tienen embeddings similares, porque significan casi lo mismo. Un sistema de búsqueda usando embeddings los emparejaría.

El lado del negocio

Proveedor
La empresa que hace funcionar la IA

La organización que entrena, aloja y sirve el modelo de IA. Cuando usas Claude, el proveedor es Anthropic. Cuando usas GPT-4, el proveedor es OpenAI. Cuando usas Gemini, es Google. Los proveedores poseen el modelo, ejecutan las GPUs y establecen los precios. Algunos proveedores hacen sus propios modelos (Anthropic, Google); otros alojan modelos hechos por diferentes equipos (Together.ai, Fireworks).

En Zubnet: te conectamos con 61 proveedores. Tú eliges el modelo; nosotros manejamos la conexión. Si un proveedor se cae, cambias a otro sin cambiar nada.
Wrapper
Un intermediario entre tú y el proveedor de IA

Una empresa que no hace funcionar su propia IA sino que construye un producto sobre la API de alguien más. Algunos wrappers agregan valor genuino — mejores interfaces, funciones de facturación, acceso multi-proveedor. Otros solo revenden acceso a API con un margen y un logo. La pregunta clave es: ¿qué valor agrega el wrapper? Si la respuesta es “ninguno”, solo estás pagando extra.

Ejemplo: cientos de “herramientas de escritura con IA” son wrappers alrededor de la misma API de OpenAI. Podrías obtener la misma salida usando ChatGPT directamente. Un buen wrapper, en cambio, te da funciones que la API cruda no tiene — como comparar modelos, gestionar costes o cambiar proveedores con un clic.
BYOK — Bring Your Own Key
Usar tus propias credenciales de API en la plataforma de alguien más

En vez de pagar el precio con margen de una plataforma, obtienes tu propia clave API directamente del proveedor (como Anthropic u OpenAI) y la conectas a la plataforma. Pagas al proveedor directamente a sus tarifas mayoristas, y la plataforma solo proporciona la interfaz. Es como llevar tus propios ingredientes a un restaurante que cobra una tarifa de cocción en vez del precio completo de la comida.

Por qué importa: en Zubnet, BYOK significa que puedes usar tus propias claves API y pagar a los proveedores directamente, sin margen en los costes de IA mismos.

Multimodal & más allá del texto

Multimodal
IA que maneja más que solo texto

Una IA multimodal puede procesar y generar múltiples tipos de contenido: texto, imágenes, audio, video o código. La IA temprana era solo texto — escribías, ella escribía de vuelta. Los modelos multimodales modernos pueden mirar una imagen y describirla, escuchar audio y transcribirlo, o tomar una descripción de texto y generar una imagen. La tendencia es hacia modelos que manejen todo.

Ejemplo: subes una foto de una receta y preguntas “¿qué ingredientes necesito para hacer esto?” Un modelo multimodal lee la imagen, identifica el plato y lista los ingredientes — todo desde una foto.
Herramientas que dejan a la IA hacer cosas más allá de generar texto

Una forma estándar de conectar modelos de IA a herramientas y fuentes de datos externas. En vez de solo chatear, la IA puede buscar en la web, consultar bases de datos, leer archivos, ejecutar código, llamar APIs y tomar acciones en el mundo real. MCP define cómo funcionan estas conexiones para que cualquier herramienta compatible funcione con cualquier modelo compatible. Piensa en ello como USB para IA — un enchufe universal que te deja conectar cualquier herramienta.

Ejemplo: con MCP, un asistente de IA podría revisar tu calendario, redactar un correo, buscar un vuelo y agregar la reserva a tu hoja de cálculo de viajes — todo en una conversación, usando herramientas reales, no solo generando texto que parece que hizo esas cosas.

Referencia rápida

LLM = el cerebro IA • Token = su unidad de medida • Ventana de contexto = su memoria de trabajo • Prompt = tus instrucciones • Inferencia = la IA pensando • Temperatura = dial de creatividad • Alucinación = ficción con confianza • Fine-tuning = entrenamiento especializado • RAG = darle material de referencia • Embedding = significado en números • Proveedor = quien lo hace funcionar • Wrapper = intermediario • BYOK = tus claves, su interfaz • Multimodal = más allá del texto • MCP = IA + herramientas reales

Ese es el vocabulario. No necesitas memorizarlo todo de una vez — vuelve a esta página cuando encuentres un término del que no estés seguro. El objetivo no es sonar inteligente en conversaciones sobre IA. Es entender lo que compras, lo que usas y de qué hablan realmente las personas que te venden herramientas de IA.

¿Quieres ver estos conceptos en acción? Zubnet pone 361+ modelos de 61 proveedores en un solo lugar — con soporte BYOK, comparación multi-modelo y precios transparentes.

Sarah Chen
Zubnet · March 19, 2026
ESC