V VComInt Seu fornecedor de informações em SEO
Agora em Por dentro do Googlebot: Google detalha limites de rastreamento e como os bytes são processados

SEO Técnico · 26 de abr de 2026

Por dentro do Googlebot: Google detalha limites de rastreamento e como os bytes são processados

Gary Illyes explica o limite de 2 MB, o Web Rendering Service e por que o Googlebot não é um único robô

Resumo

  • Post do Google Search Central esclarece que o Googlebot é uma plataforma compartilhada por dezenas de produtos, com limite de 2 MB por URL para HTML.
  • Conteúdo além do corte é invisível para o índice.

Atualização: 26 de abr de 2026

Relevância
Relevância média 0 / 5 (0)

O Google publicou em 31 de março de 2026 um post técnico no Search Central Blog assinado por Gary Illyes que esclarece como o Googlebot realmente funciona — e desfaz um equívoco que persiste desde os anos 2000.

O nome "Googlebot" não representa um único robô. Trata-se, na prática, de uma plataforma centralizada de rastreamento compartilhada por dezenas de produtos do Google: Search, Shopping, AdSense e outros. Quando o Googlebot aparece nos logs do servidor, o tráfego é do Google Search especificamente. Os demais produtos aparecem com seus próprios nomes de rastreadores.

O ponto técnico mais relevante do post é o limite de bytes. O Googlebot busca no máximo 2 MB por URL, incluindo os cabeçalhos HTTP. Para PDFs, o limite é de 64 MB. Rastreadores sem limite definido adotam 15 MB como padrão. Quando uma página ultrapassa 2 MB, o Googlebot não a rejeita: simplesmente para o download no corte e repassa os bytes obtidos ao Web Rendering Service (WRS) como se fossem o arquivo completo. Tudo que vem depois do limite não é buscado, não é renderizado e não é indexado.

O WRS processa JavaScript e CSS como um navegador moderno, mas opera de forma stateless — limpa localStorage e dados de sessão entre requisições. Cada recurso externo referenciado no HTML tem seu próprio contador de bytes, separado do limite da página pai.

O Google recomenda manter o HTML enxuto, posicionar meta tags, canonicals e dados estruturados o mais alto possível no documento, e monitorar logs de servidor para evitar quedas na frequência de rastreamento.