Como o TubeLens avalia vídeos
Cada análise segue um pipeline determinístico com critérios públicos e fórmulas auditáveis. Esta página explica em detalhes o que a IA observa, como pondera e por que chega ao veredicto. Nada aqui é caixa-preta.
Última atualização desta metodologia: maio de 2026.
1. Pipeline da análise
Toda análise passa por 4 estágios determinísticos. Mesmo vídeo entrando hoje e daqui a um mês produz a mesma estrutura de saída — só pode mudar se atualizarmos publicamente esta página.
- 1
Extração da transcrição
A URL é normalizada e o vídeo é resolvido pelo seu ID de 11 caracteres. A transcrição é obtida via infraestrutura própria que extrai legendas de qualquer vídeo do YouTube com CC habilitado. Quando há legendas em mais de um idioma, priorizamos pt → en → es para máxima qualidade. Não usamos áudio nem reconhecimento de fala — somente o texto que o canal já deixou disponível como CC.
- 2
Engenharia de prompt e contrato de saída
A transcrição é enviada ao modelo dentro de um prompt rígido que define os critérios, os 28 labels possíveis, as âncoras de score (0/5/10) e a obrigação de citar evidência da transcrição em cada label atribuído. A saída é restringida por um schema estruturado que rejeita qualquer formato inválido — sem prosa livre, sem campos faltando.
- 3
Análise pelo modelo
Um modelo de IA generativa de última geração processa a transcrição com saída controlada: temperatura baixa para reduzir variabilidade entre execuções e schema rígido para garantir estrutura uniforme. O modelo recebe título, canal, idioma da transcrição e o texto integral, com truncamento em 30.000 caracteres quando necessário (preserva o começo da entrega).
- 4
Pós-processamento e armazenamento
O score composto é calculado em código (não confiamos no modelo para somar números), o selo é atribuído por faixa fixa, e tudo é gravado em uma única transação no banco de dados. Análises ficam em cache global por video_id — vídeos analisados antes não consomem tokens novamente.
2. Os 4 critérios de avaliação
Cada vídeo recebe nota de 0 a 10 em quatro dimensões. As âncoras são fixas e públicas: 0 = ausente, 5 = média do YouTube, 10 = excepcional. Os pesos definem como elas se combinam no score final.
Densidade informativa
Peso 30%Quanto conteúdo útil há por minuto. Penaliza repetição, recapitulação excessiva, monólogo introdutório longo, encerramento estendido e qualquer recurso para inflar watch time. Um vídeo de 30 minutos que cabia em 8 será penalizado mesmo se o conteúdo essencial for bom.
Âncoras
0— Quase sem informação útil; predomina filler
5— Algum filler, dá pra acompanhar em 1.25x
10— Cada minuto traz informação nova; recapitulações curtas
Clareza
Peso 25%Estrutura, didática, organização das ideias. Avalia se há um fio condutor, exemplos quando necessário, definição dos termos antes de usá-los, e progressão lógica. Conteúdo tecnicamente correto mas mal explicado perde aqui.
Âncoras
0— Caótico, sem estrutura, ideias soltas
5— Dá pra acompanhar com esforço; estrutura implícita
10— Estrutura clara, exemplos no momento certo, definições explícitas
Credibilidade
Peso 30%Fontes, alegações verificáveis, ausência de sensacionalismo. Analisa se o autor cita papers, links, dados reais com fonte, distingue opinião de fato e qualifica afirmações. Catastrofismo, certeza absoluta sobre temas controversos e charlatanismo derrubam a nota aqui.
Âncoras
0— Alegações sem fonte, sensacionalismo, charlatanismo
5— Mistura fato e opinião sem distinção clara
10— Bem-fontado, qualifica afirmações, transparente sobre limites
Originalidade
Peso 15%Análise própria vs eco do consenso. Penaliza vídeo que apenas reembrulha o que circula nas redes sem adicionar análise, dados próprios ou perspectiva nova. Reconhece quando o autor traz pesquisa primária ou um ângulo incomum.
Âncoras
0— Repete consenso, sem ângulo próprio
5— Recombina informação conhecida com algum toque pessoal
10— Análise primária, ângulo incomum, pesquisa própria
3. Score composto e selos
A média ponderada das 4 dimensões produz um número entre 0 e 10. Esse número se mapeia em 5 selos. As faixas são fixas; não há ajuste editorial.
Fórmula
score = densidade × 0.30
+ clareza × 0.25
+ credibil. × 0.30
+ originalid × 0.15Faixas
| Score | Selo | Significado |
|---|---|---|
| 9.0 – 10.0 | exceptional | Excepcional — referência no tema |
| 7.5 – 8.9 | recommended | Recomendado — vale o tempo investido |
| 6.0 – 7.4 | acceptable | Aceitável — útil, mas há melhores |
| 4.0 – 5.9 | weak | Fraco — perda de tempo provável |
| 0.0 – 3.9 | avoid | Evite — desinformação ou enrolação |
4. Os 28 sinais detectados
Independente do score, o modelo busca 28 padrões no conteúdo. Cada sinal detectado vem com intensidade de 1 a 5 e uma justificativa citando trecho da transcrição como evidência. Sinais não detectados são omitidos — não há "resposta padrão".
Sinais negativos (red flags)
Sinais neutros / descritivos
Sinais positivos (green flags)
5. Categorias primárias
Cada vídeo é categorizado em até 3 categorias primárias com confiança 1-5, mais uma subcategoria livre. Essas categorias alimentam os filtros do ranking e dos canais.
6. Ranking de canais — média Bayesiana
O ranking de canais não usa a média simples das notas dos vídeos. Canal com 2 vídeos nota 10 não pode vencer canal com 20 vídeos nota 9.2 — seria injusto estatisticamente. Usamos suavização Bayesiana com prior na média global do período.
Fórmula
C × M + n × x
score_canal = ─────────────────
C + nParâmetros
- M = média global de todos os scores no período/categoria
- n = número de vídeos do canal no período
- x = média simples do canal no período
- C = peso do prior (5)
Regra do limiar 5.0
Canais com score Bayesiano acima de 5 entram apenas em "melhores". Abaixo de 5, apenas em "piores". Exatamente 5 fica de fora dos dois.
Mínimo de vídeos
Canais com menos de 3 vídeos analisados ficam fora do ranking — amostra insuficiente para qualquer afirmação estatística.
7. Limitações conhecidas
A IA não é infalível e nós não escondemos isso. As limitações principais são:
- A análise se baseia exclusivamente na transcrição em texto. Não vemos imagens, gráficos, slides ou linguagem corporal.
- Sátira sutil sem disclosure pode ser mal classificada como sensacionalista ou desinformação.
- Não fazemos checagem ao vivo de fatos contra fontes externas. A credibilidade é avaliada por consistência interna, qualificação de afirmações e citação de fontes pelo próprio autor.
- A qualidade da transcrição afeta o resultado. Vídeos com legendas auto-geradas de baixa qualidade tendem a receber notas mais conservadoras.
- O modelo pode ter viés residual nos pesos de labels — fazemos auditorias periódicas e publicamos atualizações nesta página.