V VComInt Seu fornecedor de informações em SEO
Agora em Novo padrão experimental pode mudar a verificação de bots e crawlers

SEO técnico · 05 de maio de 2026

Novo padrão experimental pode mudar a verificação de bots e crawlers

Protocolo ainda experimental pode ajudar sites a diferenciar crawlers legítimos de bots que falsificam user agents.

Resumo

  • O Google está testando o Web Bot Auth.
  • O protocolo experimental usa assinatura criptográfica para validar identidade de bots.
  • A proposta pode ajudar sites a controlar tráfego automatizado, mas ainda não substitui verificação por IP, DNS reverso e user-agent.
A verificação de bots pode deixar de depender apenas de user-agent e passar a incluir prova criptográfica de identidade.

Atualização: 05 de maio de 2026

Relevância
Relevância média 0 / 5 (0)

Um novo padrão experimental pode mudar a forma como sites verificam bots, crawlers e agentes automatizados. O Web Bot Auth foi apresentado como uma tentativa de permitir que servidores confirmem se uma requisição automatizada realmente vem do serviço que afirma representar.

A discussão foi destacada pelo Search Engine Journal em reportagem sobre uma nova documentação do Google. A proposta mira um problema antigo da web: bots podem copiar nomes e user agents de crawlers legítimos para mascarar sua identidade.

O que é Web Bot Auth

O Web Bot Auth é baseado em uma proposta chamada HTTP Message Signatures Directory. A ideia é criar um mecanismo padronizado para que serviços automatizados apresentem credenciais verificáveis sem depender de acordos manuais entre cada site e cada bot.

Na prática, o protocolo permite que uma requisição traga sinais criptográficos que o servidor pode validar. Em vez de confiar apenas em um nome declarado no user-agent, o site passa a ter um caminho para checar se aquele tráfego está associado ao serviço que diz representar.

Isso pode ajudar a separar crawlers legítimos de bots que tentam se passar por mecanismos de busca, agentes de IA, ferramentas de monitoramento ou outros serviços conhecidos.

Como a proposta funciona

O padrão usa arquivos de chaves em formato JSON Web Key Set, endereços padronizados dentro de .well-known e um novo header chamado Signature-Agent.

Esse header funciona como uma espécie de cartão de identidade digital. Ele aponta para o diretório de chaves do serviço, permitindo que o servidor receptor valide a assinatura da requisição.

A proposta não decide automaticamente se um bot é bom ou ruim. Ela apenas oferece um sinal mais forte sobre identidade. A decisão de permitir, limitar ou bloquear continua nas mãos do site.

Por que isso importa para SEO

Para SEO técnico, o tema é importante porque o tráfego automatizado está ficando mais complexo. Além de crawlers tradicionais, sites agora recebem bots de IA, agentes, scrapers, verificadores, ferramentas de monitoramento, plataformas de anúncios e sistemas de treinamento.

Bloquear tudo pode prejudicar visibilidade e integrações legítimas. Permitir tudo pode desperdiçar crawl budget, aumentar custos de infraestrutura, expor conteúdo e facilitar scraping abusivo.

Um padrão criptográfico de autenticação pode ajudar sites a criar políticas mais precisas para bots confiáveis e tráfego suspeito.

Ainda não substitui métodos atuais

O Web Bot Auth ainda está em fase experimental. A documentação destacada pelo Search Engine Journal alerta que nem todos os user agents do Google usam o protocolo e que o Google ainda não assina todas as requisições de agentes que participam do teste.

Por isso, a ausência de assinatura não deve ser usada automaticamente como prova de que um bot é malicioso.

A recomendação é continuar usando métodos tradicionais, como verificação por IP, DNS reverso e user-agent, em conjunto com o novo protocolo durante a transição.

Análise

A proposta aparece em um momento em que a web está tentando reorganizar a relação entre sites e máquinas. Antes, o problema principal era permitir ou bloquear mecanismos de busca. Agora, a lista inclui agentes de IA, crawlers de treinamento, ferramentas de resposta, bots comerciais e scrapers sofisticados.

O Web Bot Auth pode ser um passo importante porque desloca a confiança do campo declaratório para o campo verificável. Um bot não apenas diz quem é. Ele precisa provar.

Para administradores, SEOs técnicos e equipes de infraestrutura, a mudança exigirá atenção a logs, headers, regras de firewall, CDNs e políticas de acesso. A autenticação de bots tende a se tornar uma parte mais importante da governança de tráfego orgânico e automatizado.