Termos de IA explicados sem jargão
Você não precisa entender a matemática por trás da IA para usá-la bem. Mas precisa entender o vocabulário, porque os termos aparecem o tempo todo — em descrições de produtos, páginas de preços, blogs e conversas com gente que assume que você já sabe o que eles significam.
Este não é um glossário de manual. Cada termo recebe uma definição em linguagem clara, uma analogia que realmente ajuda e um exemplo concreto. Sem jargão para explicar jargão.
Os conceitos centrais
Um assistente muito lido. Um LLM foi treinado em bilhões de páginas de texto — livros, artigos, sites, código, conversas — e aprendeu os padrões da linguagem bem o suficiente para gerar texto novo que soa humano. Ele não “sabe” coisas como você. Ele prevê a próxima palavra mais provável, repetidamente, incrivelmente rápido. Mas o resultado é tão bom que a diferença é frequentemente acadêmica.
Um pedaço de palavra. A IA não lê palavras como você — ela quebra o texto em “tokens”, que são pedaços que podem ser uma palavra inteira, parte de uma palavra ou até um único caractere. Palavras comuns como “olá” geralmente são um token. Palavras mais longas são divididas: “extraordinário” vira uns 3 tokens. Regra prática: 1 token ≈ 0,75 palavras, ou uns 4 caracteres.
A janela de contexto é a quantidade total de texto que a IA consegue manter na memória de trabalho durante uma conversa. Tudo o que você disse, tudo o que ela disse, mais qualquer documento que você colou — tudo precisa caber na janela de contexto. Uma vez que a conversa excede a janela, a IA começa a “esquecer” as partes mais antigas.
Suas instruções para a IA. Um prompt pode ser tão simples quanto “qual é a capital da França?” ou tão complexo quanto um conjunto de instruções de vários parágrafos com exemplos, restrições e requisitos de formato. A qualidade do seu prompt é o maior fator na qualidade da resposta.
Como a IA pensa (mais ou menos)
Quando um modelo de IA processa seu prompt e gera uma saída, isso se chama inferência. O modelo em si foi treinado uma vez (o que leva semanas ou meses e milhões de dólares). Toda vez que você o usa depois, ele está fazendo inferência — aplicando o que aprendeu à sua entrada específica. Pense no treinamento como ir à escola, e na inferência como fazer a prova.
Um parâmetro (geralmente 0 a 1) que controla o quão previsíveis ou criativas são as respostas da IA. Em temperatura 0, a IA sempre escolhe a próxima palavra mais provável — confiável, consistente, às vezes chato. Em temperatura 1, ela introduz aleatoriedade, escolhendo palavras menos óbvias, levando a saída mais criativa e variada. Pense nela como um slider entre “contador rígido” e “músico de jazz”.
Uma alucinação de IA é quando o modelo gera informação que soa autoritativa e plausível mas é completamente fabricada. Não está mentindo (não tem intenção) — está prevendo como um texto que soa plausível se parece, e às vezes essa previsão não corresponde à realidade. Citações falsas, estatísticas inventadas, URLs inexistentes e afirmações factuais confiantes-mas-incorretas são todas alucinações.
Deixando a IA mais inteligente
Pegar um LLM pré-treinado e treiná-lo mais em um conjunto de dados especializado para que fique melhor em uma tarefa específica. O modelo base já sabe linguagem; o fine-tuning ensina a ele os padrões particulares do seu domínio. É como contratar alguém geralmente inteligente e depois dar treinamento especializado no trabalho.
Em vez de depender só do que o modelo aprendeu durante o treinamento, o RAG deixa a IA pesquisar em um conjunto específico de documentos antes de responder. Ele recupera informação relevante primeiro, depois gera uma resposta baseada no que encontrou. Isso reduz dramaticamente as alucinações para perguntas factuais porque a IA trabalha a partir de material fonte real, não só da memória.
Um embedding converte um pedaço de texto em uma lista de números (um “vetor”) que captura seu significado. Textos similares recebem números similares. Isso deixa a IA fazer busca semântica — encontrar documentos que são sobre o mesmo tópico, mesmo que usem palavras completamente diferentes. É a tecnologia que alimenta o RAG, sistemas de recomendação e busca inteligente.
O lado comercial
A organização que treina, hospeda e serve o modelo de IA. Quando você usa o Claude, o provedor é a Anthropic. Quando você usa o GPT-4, o provedor é a OpenAI. Quando você usa o Gemini, é o Google. Os provedores são donos do modelo, rodam as GPUs e definem os preços. Alguns provedores fazem seus próprios modelos (Anthropic, Google); outros hospedam modelos feitos por equipes diferentes (Together.ai, Fireworks).
Uma empresa que não roda sua própria IA mas constrói um produto em cima da API de outra pessoa. Alguns wrappers adicionam valor genuíno — melhores interfaces, funções de cobrança, acesso multi-provedor. Outros só revendem acesso a API com margem e um logo. A pergunta-chave é: o que o wrapper adiciona de valor? Se a resposta é “nada”, você só está pagando extra.
Em vez de pagar o preço com margem de uma plataforma, você pega sua própria chave de API diretamente do provedor (como Anthropic ou OpenAI) e a conecta à plataforma. Você paga o provedor diretamente nas tarifas de atacado dele, e a plataforma só fornece a interface. É como levar seus próprios ingredientes para um restaurante que cobra uma taxa de cozimento em vez do preço cheio da refeição.
Multimodal & além do texto
Uma IA multimodal pode processar e gerar múltiplos tipos de conteúdo: texto, imagens, áudio, vídeo ou código. A IA inicial era só texto — você digitava, ela digitava de volta. Os modelos multimodais modernos podem olhar uma imagem e descrevê-la, ouvir áudio e transcrevê-lo, ou pegar uma descrição de texto e gerar uma imagem. A tendência é para modelos que lidam com tudo.
Uma forma padrão de conectar modelos de IA a ferramentas e fontes de dados externas. Em vez de só conversar, a IA pode pesquisar na web, consultar bancos de dados, ler arquivos, executar código, chamar APIs e tomar ações no mundo real. O MCP define como essas conexões funcionam para que qualquer ferramenta compatível funcione com qualquer modelo compatível. Pense nele como USB para IA — uma tomada universal que te deixa conectar qualquer ferramenta.
Referência rápida
LLM = o cérebro IA • Token = sua unidade de medida • Janela de contexto = sua memória de trabalho • Prompt = suas instruções • Inferência = a IA pensando • Temperatura = dial de criatividade • Alucinação = ficção com confiança • Fine-tuning = treinamento especializado • RAG = dar material de referência • Embedding = significado em números • Provedor = quem roda a IA • Wrapper = intermediário • BYOK = suas chaves, a interface deles • Multimodal = além do texto • MCP = IA + ferramentas reais
Esse é o vocabulário. Você não precisa memorizar tudo de uma vez — volte a esta página quando encontrar um termo sobre o qual não tem certeza. O objetivo não é soar inteligente em conversas sobre IA. É entender o que você está comprando, o que está usando e do que as pessoas que te vendem ferramentas de IA estão realmente falando.
Quer ver esses conceitos em ação? O Zubnet coloca 361+ modelos de 61 provedores em um só lugar — com suporte BYOK, comparação multi-modelo e preços transparentes.