Iniciante

Termos de IA explicados sem jargão

A indústria de IA adora seus acrônimos e termos técnicos. Aqui está cada termo que você realmente precisa conhecer, explicado em linguagem clara com exemplos reais. Salve esta página nos favoritos.
Sarah Chen 19 de março de 2026 12 min de leitura

Você não precisa entender a matemática por trás da IA para usá-la bem. Mas precisa entender o vocabulário, porque os termos aparecem o tempo todo — em descrições de produtos, páginas de preços, blogs e conversas com gente que assume que você já sabe o que eles significam.

Este não é um glossário de manual. Cada termo recebe uma definição em linguagem clara, uma analogia que realmente ajuda e um exemplo concreto. Sem jargão para explicar jargão.

Os conceitos centrais

O que as pessoas querem dizer quando dizem “IA” na maioria das conversas

Um assistente muito lido. Um LLM foi treinado em bilhões de páginas de texto — livros, artigos, sites, código, conversas — e aprendeu os padrões da linguagem bem o suficiente para gerar texto novo que soa humano. Ele não “sabe” coisas como você. Ele prevê a próxima palavra mais provável, repetidamente, incrivelmente rápido. Mas o resultado é tão bom que a diferença é frequentemente acadêmica.

Exemplo: Claude, GPT-4, Gemini, DeepSeek e Llama são todos LLMs. Quando você conversa com uma IA, você está falando com um LLM.
Token
A unidade que a IA usa para medir texto — não exatamente uma palavra, não exatamente uma letra

Um pedaço de palavra. A IA não lê palavras como você — ela quebra o texto em “tokens”, que são pedaços que podem ser uma palavra inteira, parte de uma palavra ou até um único caractere. Palavras comuns como “olá” geralmente são um token. Palavras mais longas são divididas: “extraordinário” vira uns 3 tokens. Regra prática: 1 token ≈ 0,75 palavras, ou uns 4 caracteres.

Por que importa: o preço da IA é por token. Quando um modelo custa “3 $ por milhão de tokens de entrada”, são uns 3 $ por 750 000 palavras — aproximadamente o tamanho de 5 romances. As janelas de contexto também são medidas em tokens.
Janela de contexto
Quanto a IA pode “enxergar” de uma vez

A janela de contexto é a quantidade total de texto que a IA consegue manter na memória de trabalho durante uma conversa. Tudo o que você disse, tudo o que ela disse, mais qualquer documento que você colou — tudo precisa caber na janela de contexto. Uma vez que a conversa excede a janela, a IA começa a “esquecer” as partes mais antigas.

Escala: 8K tokens ≈ um post de blog longo. 32K ≈ um romance curto. 128K ≈ um livro de 300 páginas. 1M tokens (disponível em alguns modelos Gemini e Claude) ≈ uns 5 romances grossos. Mais contexto significa que a IA pode trabalhar com documentos mais longos sem perder o fio.
Prompt
O que você escreve para a IA

Suas instruções para a IA. Um prompt pode ser tão simples quanto “qual é a capital da França?” ou tão complexo quanto um conjunto de instruções de vários parágrafos com exemplos, restrições e requisitos de formato. A qualidade do seu prompt é o maior fator na qualidade da resposta.

Exemplo: “Escreva um e-mail profissional recusando uma reunião” é um prompt. Assim como “Você é um nutricionista especialista. Com base nos seguintes resultados de sangue, sugira mudanças na dieta. Seja específico e cite seu raciocínio.”

Como a IA pensa (mais ou menos)

Inferência
A IA pensando e gerando uma resposta

Quando um modelo de IA processa seu prompt e gera uma saída, isso se chama inferência. O modelo em si foi treinado uma vez (o que leva semanas ou meses e milhões de dólares). Toda vez que você o usa depois, ele está fazendo inferência — aplicando o que aprendeu à sua entrada específica. Pense no treinamento como ir à escola, e na inferência como fazer a prova.

Por que importa: a inferência é o que você paga. Inferência mais rápida significa respostas mais rápidas. Os “custos de inferência” são a despesa contínua de rodar a IA, diferente do custo único de treinamento.
Temperatura
O dial de criatividade

Um parâmetro (geralmente 0 a 1) que controla o quão previsíveis ou criativas são as respostas da IA. Em temperatura 0, a IA sempre escolhe a próxima palavra mais provável — confiável, consistente, às vezes chato. Em temperatura 1, ela introduz aleatoriedade, escolhendo palavras menos óbvias, levando a saída mais criativa e variada. Pense nela como um slider entre “contador rígido” e “músico de jazz”.

Guia prático: use temperatura baixa (0-0,3) para código, extração de dados e perguntas factuais. Use temperatura mais alta (0,7-1,0) para escrita criativa, brainstorm e geração de opções diversas.
Hallucination
Quando a IA inventa coisas com confiança

Uma alucinação de IA é quando o modelo gera informação que soa autoritativa e plausível mas é completamente fabricada. Não está mentindo (não tem intenção) — está prevendo como um texto que soa plausível se parece, e às vezes essa previsão não corresponde à realidade. Citações falsas, estatísticas inventadas, URLs inexistentes e afirmações factuais confiantes-mas-incorretas são todas alucinações.

Exemplo: você pergunta pelo autor de um paper específico. A IA responde com um nome de autor, revista e ano que soam reais — mas o paper não existe. Isso acontece com cada modelo. Sempre verifique as afirmações que importam.

Deixando a IA mais inteligente

Fine-tuning
Ensinar novos truques a um modelo existente

Pegar um LLM pré-treinado e treiná-lo mais em um conjunto de dados especializado para que fique melhor em uma tarefa específica. O modelo base já sabe linguagem; o fine-tuning ensina a ele os padrões particulares do seu domínio. É como contratar alguém geralmente inteligente e depois dar treinamento especializado no trabalho.

Exemplo: um escritório de advocacia fine-tuna um modelo em milhares de petições legais para que ele escreva no estilo legal apropriado e entenda convenções de jurisprudência. O modelo não aprende direito do zero — ele adapta o que já sabe.
Dar à IA um livro de referência para consultar

Em vez de depender só do que o modelo aprendeu durante o treinamento, o RAG deixa a IA pesquisar em um conjunto específico de documentos antes de responder. Ele recupera informação relevante primeiro, depois gera uma resposta baseada no que encontrou. Isso reduz dramaticamente as alucinações para perguntas factuais porque a IA trabalha a partir de material fonte real, não só da memória.

Exemplo: você envia o manual de RH da sua empresa. Quando você pergunta “qual é nossa política de licença parental?”, a IA pesquisa no manual, encontra a seção relevante e responde com base no documento real — não num palpite.
Embedding
Converter texto em números para que a IA possa pesquisar e comparar

Um embedding converte um pedaço de texto em uma lista de números (um “vetor”) que captura seu significado. Textos similares recebem números similares. Isso deixa a IA fazer busca semântica — encontrar documentos que são sobre o mesmo tópico, mesmo que usem palavras completamente diferentes. É a tecnologia que alimenta o RAG, sistemas de recomendação e busca inteligente.

Exemplo: as frases “como eu devolvo um produto?” e “qual é sua política de reembolso?” usam palavras diferentes mas têm embeddings similares, porque significam quase a mesma coisa. Um sistema de busca usando embeddings casaria as duas.

O lado comercial

Provedor
A empresa que roda a IA

A organização que treina, hospeda e serve o modelo de IA. Quando você usa o Claude, o provedor é a Anthropic. Quando você usa o GPT-4, o provedor é a OpenAI. Quando você usa o Gemini, é o Google. Os provedores são donos do modelo, rodam as GPUs e definem os preços. Alguns provedores fazem seus próprios modelos (Anthropic, Google); outros hospedam modelos feitos por equipes diferentes (Together.ai, Fireworks).

No Zubnet: conectamos você a 61 provedores. Você escolhe o modelo; a gente cuida da conexão. Se um provedor cai, você muda para outro sem mudar nada.
Wrapper
Um intermediário entre você e o provedor de IA

Uma empresa que não roda sua própria IA mas constrói um produto em cima da API de outra pessoa. Alguns wrappers adicionam valor genuíno — melhores interfaces, funções de cobrança, acesso multi-provedor. Outros só revendem acesso a API com margem e um logo. A pergunta-chave é: o que o wrapper adiciona de valor? Se a resposta é “nada”, você só está pagando extra.

Exemplo: centenas de “ferramentas de escrita com IA” são wrappers em torno da mesma API da OpenAI. Você poderia obter a mesma saída usando o ChatGPT diretamente. Um bom wrapper, ao contrário, te dá funções que a API crua não tem — como comparar modelos, gerenciar custos ou trocar de provedor com um clique.
BYOK — Bring Your Own Key
Usar suas próprias credenciais de API na plataforma de outra pessoa

Em vez de pagar o preço com margem de uma plataforma, você pega sua própria chave de API diretamente do provedor (como Anthropic ou OpenAI) e a conecta à plataforma. Você paga o provedor diretamente nas tarifas de atacado dele, e a plataforma só fornece a interface. É como levar seus próprios ingredientes para um restaurante que cobra uma taxa de cozimento em vez do preço cheio da refeição.

Por que importa: no Zubnet, BYOK significa que você pode usar suas próprias chaves de API e pagar os provedores diretamente, sem margem nos custos de IA em si.

Multimodal & além do texto

Multimodal
IA que lida com mais que só texto

Uma IA multimodal pode processar e gerar múltiplos tipos de conteúdo: texto, imagens, áudio, vídeo ou código. A IA inicial era só texto — você digitava, ela digitava de volta. Os modelos multimodais modernos podem olhar uma imagem e descrevê-la, ouvir áudio e transcrevê-lo, ou pegar uma descrição de texto e gerar uma imagem. A tendência é para modelos que lidam com tudo.

Exemplo: você envia uma foto de uma receita e pergunta “de quais ingredientes eu preciso para fazer isso?” Um modelo multimodal lê a imagem, identifica o prato e lista os ingredientes — tudo a partir de uma foto.
Ferramentas que deixam a IA fazer coisas além de gerar texto

Uma forma padrão de conectar modelos de IA a ferramentas e fontes de dados externas. Em vez de só conversar, a IA pode pesquisar na web, consultar bancos de dados, ler arquivos, executar código, chamar APIs e tomar ações no mundo real. O MCP define como essas conexões funcionam para que qualquer ferramenta compatível funcione com qualquer modelo compatível. Pense nele como USB para IA — uma tomada universal que te deixa conectar qualquer ferramenta.

Exemplo: com o MCP, um assistente de IA poderia verificar sua agenda, rascunhar um e-mail, pesquisar um voo e adicionar a reserva à sua planilha de viagens — tudo em uma conversa, usando ferramentas reais, não só gerando texto que parece que fez essas coisas.

Referência rápida

LLM = o cérebro IA • Token = sua unidade de medida • Janela de contexto = sua memória de trabalho • Prompt = suas instruções • Inferência = a IA pensando • Temperatura = dial de criatividade • Alucinação = ficção com confiança • Fine-tuning = treinamento especializado • RAG = dar material de referência • Embedding = significado em números • Provedor = quem roda a IA • Wrapper = intermediário • BYOK = suas chaves, a interface deles • Multimodal = além do texto • MCP = IA + ferramentas reais

Esse é o vocabulário. Você não precisa memorizar tudo de uma vez — volte a esta página quando encontrar um termo sobre o qual não tem certeza. O objetivo não é soar inteligente em conversas sobre IA. É entender o que você está comprando, o que está usando e do que as pessoas que te vendem ferramentas de IA estão realmente falando.

Quer ver esses conceitos em ação? O Zubnet coloca 361+ modelos de 61 provedores em um só lugar — com suporte BYOK, comparação multi-modelo e preços transparentes.

Sarah Chen
Zubnet · March 19, 2026
ESC