Digite uma frase curta e acompanhe, passo a passo, como o modelo a transforma em tokens, vetores de significado, atenção entre palavras e, finalmente, uma previsão para o próximo token. É a arquitetura por trás de ChatGPT, Claude, Gemini e Llama — observada em miniatura.
Comece com algo simples e de domínio próximo — uma chamada de marketing, uma manchete, uma reflexão executiva. A frase será o ponto de partida da simulação. O Transformer vai tentar continuar daquele ponto, prevendo o próximo token palavra a palavra.