Interaflow

Produto

Treinamento

Estratégias agrupam Simulações; cada Simulação põe um Atendente contra um Avatar e pontua o desempenho por uma Grade composta de Critérios e Comportamentos.

Atualizado em

O que é

Treinamento é o módulo de Workforce do Interaflow dedicado à preparação dos Atendentes. A equipe de treinamento monta cenários realistas, o Atendente conversa com um Avatar controlado por IA, e a interação é pontuada por uma Grade de Avaliação composta de Critérios e Comportamentos.

A intenção é replicar dentro da plataforma o ciclo de role-play que operações de contact center fazem com humanos, mas com escala — um único coordenador consegue rodar dezenas de simulações por semana sem montar duplas e cronometrar manualmente.

Modelo conceitual

Estratégia ──► N Simulações


              Avatar  ◄──► Atendente


                Grade ──► N Critérios + Comportamentos


                Pontuação
  • Estratégia — agrupador temático de Simulações (“Treinamento Cobrança SP”, “Onboarding novo Atendente”).
  • Simulação — cenário concreto: contexto, Avatar a ser desafiado, Grade que pontua.
  • Avatar — personagem com imagem, comportamento, voz e nível de desafio. É a “outra ponta” da Conversa de treinamento.
  • Grade de Avaliação — rubrica que pontua o desempenho do Atendente na Simulação.
  • Critérios e Comportamentos — itens que compõem a Grade.

Esse desenho é deliberadamente parecido com Qualidade — a diferença é que Treinamento opera sobre Conversas simuladas contra Avatares, enquanto Qualidade opera sobre Conversas reais com contatos.

Estratégias

A página Estratégias lista os agrupamentos temáticos do módulo. Cada Estratégia organiza as Simulações relacionadas a um objetivo — “Onboarding”, “Treino de Cobrança Renitente”, “Atendimento de Reclamação”.

Use Estratégias para:

  • Separar treinamento por carteira ou Operação.
  • Versionar agrupados (“Estratégia Cobrança 2026 Q1” vs Q2).
  • Atribuir pacotes de Simulações ao Atendente de uma vez.

Simulações

Uma Simulação é o cenário concreto. Cada uma define:

  • Contexto — o pano de fundo da conversa (quem é o cliente, que produto contratou, o que aconteceu antes).
  • Avatar — qual personagem o Atendente vai enfrentar. Avatares diferentes alteram drasticamente a dificuldade.
  • Grade de Avaliação — qual rubrica vai pontuar.
  • Modo — chat ou voz, conforme o canal real.

A página Simulações dá visão global para localizar cenários e abrir rapidamente a configuração ou o teste.

Avatares

A biblioteca de Avatares descreve personagens fictícios usados nas Simulações. Cada Avatar tem:

  • Imagem — foto/ilustração que aparece para o Atendente durante o teste, dando “rosto” à conversa.
  • Comportamento — instruções de como o Avatar se comporta (paciente, irritado, indiferente, técnico, confuso).
  • Voz — quando a Simulação é em voz, qual voz o Avatar usa.
  • Nível de desafio — escala que ajuda a montar trilha do mais fácil para o mais difícil.

A IA dos Avatares é construída sobre os modelos da OpenAI — voz via Realtime API, texto via os modelos contextuais da plataforma.

Grades de Avaliação

A Grade é a rubrica que pontua o desempenho do Atendente na Simulação — análoga ao Formulário de Qualidade, mas focado em treinamento.

Cada Grade tem:

  • Nome e descrição.
  • Critérios e Comportamentos — itens avaliados, com peso individual.
  • Nota mínima de aprovação (configurável).

A página Grades de Avaliação organiza a biblioteca de rubricas; clicar em uma grade abre o detalhe para editar a estrutura (Critérios e Comportamentos da grade).

Critérios e Comportamentos

Os Critérios são as perguntas/dimensões que a Grade avalia (“Cumprimentou seguindo o script?”, “Identificou a necessidade do cliente?”, “Apresentou solução com clareza?”).

Cada Critério pode ter Comportamentos específicos — sub-itens mais granulares que descrevem o que conta como “conforme” e o que conta como “não conforme” naquele critério. Funciona como um checklist por critério.

A página Critérios e Comportamentos mostra a visão global — critérios são organizados dentro das Grades, então a navegação começa pela Grade que os contém.

Usuários (do módulo)

A sub-aba Usuários dentro de Treinamento gerencia quem participa do módulo (Atendentes em treinamento, coordenadores). É uma configuração leve do módulo — para gestão geral de Users do tenant use Usuários e papéis.

Fluxo end-to-end

Como uma equipe de treinamento usa o módulo:

  1. Defina a Estratégia — “Onboarding Atendente Cobrança Q2 2026”.
  2. Cadastre os Avatares que vai usar — começando pelos mais pacientes, evoluindo para os mais adversos.
  3. Monte as Grades com os Critérios e Comportamentos que refletem o que importa avaliar — cumprimento, escuta ativa, tratamento de objeção, fechamento.
  4. Crie as Simulações dentro da Estratégia, ligando contexto + Avatar + Grade.
  5. Atribua Simulações ao Atendente em treinamento.
  6. Atendente executa a Simulação — conversa por chat ou voz com o Avatar.
  7. A IA pontua o Atendente com base na Grade e devolve feedback (nota, justificativa por critério).
  8. Coordenador revisa os resultados, identifica padrões de defasagem e ajusta a trilha (mais Simulações de área fraca, Avatares mais difíceis quando dominou os básicos).

Boas práticas

  • Reuse Avatares e Grades. Investir em Avatares bem desenhados e Grades calibradas paga muito mais que criar simulação descartável.
  • Trilha gradual. Não jogue Atendente novo direto no Avatar mais difícil. Monte Estratégia com curva clara.
  • Compare Grade de Treinamento com Rubrica de Qualidade. Se os itens divergem, o Atendente é avaliado por uma régua no treinamento e por outra na operação real — gera frustração.
  • Use feedback junto com nota. A nota da IA importa, mas a justificativa por critério é o que ensina. Reserve tempo para o Atendente ler o feedback.
  • Revise Avatares periodicamente. Comportamento e voz que pareciam realistas em janeiro podem ficar datados em outubro.

Limites conhecidos

  • Gated por feature flag. Treinamento só aparece em tenants com a feature habilitada.
  • LLM apenas OpenAI. Avatares conversam via Realtime API e modelos contextuais da OpenAI.
  • Sem integração direta com performance real. O módulo treina e pontua simulações; correlacionar com performance do Atendente em Conversas reais (via Qualidade) é trabalho manual.
  • Fora do cronograma público desta versão: comparativo direto Treinamento ↔ Qualidade.

Erros comuns

  • Confundir Treinamento com Qualidade. Treinamento opera sobre Simulações com Avatares; Qualidade opera sobre Conversas reais.
  • Critérios genéricos demais. “Atendeu bem” não orienta o Atendente. “Cumprimentou usando o nome do cliente nos primeiros 30 segundos” sim.
  • Avatar único para todos os cenários. Um único nível de desafio limita a evolução; varie Avatares conforme a meta da Simulação.

Ver também