O seu site é realmente robot-friendly?

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

O que faz determinado site ficar no topo dos resultados de busca para aquela palavra pesquisada?

Os robôs possuem uma série de regras, que são colocadas em prática quando eles acessam algum site. O objetivo é determinar a relevância do site para uma determinada palavra-chave.

Alguns destes sites precisam trabalhar muito para conseguir um lugar na primeira página, pois a concorrência varia de palavra para palavra. Assim como você trabalha para tornar o seu site sempre relevante, a concorrência também não pára.

Normalmente os sites possuem muitos links e alguns deles são mais favorecidos pelos buscadores. Ou seja, seu concorrente pode ser o favorito dos buscadores em determinadas palavras-chave que também são importantes para você. Só o tempo pode dizer se você poderá reverter esse quadro.

A grande maioria dos usuários na internet não chega à segunda ou terceira página de resultados em um buscador. E, de certa forma, a primeira página do Google é um reflexo do que a sociedade precisa e procura.

Se eu vou no buscador e procuro por “Windows”, não vai aparecer nos primeiros resultados uma grande fábrica americana de janelas, concorda? O mesmo para “Banco” – não vai aparecer uma uma página inteira cheia de lojas que vendem bancos e cadeiras.

Como a maioria dos usuários não passa da primeira página dos resultados de busca, é importante que as palavras importantes para o seu negócio tenham o melhor destaque possível e o seu site apareça entre as melhores posições, o que pode gerar lucros e um aumento de tráfego considerável para a sua empresa.

Como faço para tornar meu site amigo?

Em novembro de 2006 praticamente todos os maiores sistemas de busca concordaram em utilizar o padrão do Sitemaps. No site do projeto estão as regras que os buscadores concordaram em seguir para indexar as páginas.

Se o seu desenvolvedor tiver problemas na hora de gerar o sitemap, por não conseguir instalar no servidor o programa fornecido pela Google (em Python) ou por não ter estrutura de servidor para ativar a ferramenta, na internet ele poderá encontrar alguns sites ou softwares que são capazes de gerar um gratuitamente, como este free sitemap generator.

Recomendo o uso do programa GSiteCrawler para gerar este arquivo. Uma boa maneira de começar a “relacionamento” positivo com os buscadores é fornecer este arquivo sitemap.xml através do Google Webmaster Tools.

Nesta ferramenta o seu desenvolvedor indica a URL do local onde está o sitemap no seu domínio para que o Google indexe as suas páginas de maneira mais prática e mais rápida.

O legal é que no sitemap você consegue fornecer a prioridade de cada arquivo e a frequência com que o arquivo é atualizado, para que o Google sempre forneça resultados atualizados.

Recentemente uma notícia bem legal foi dada pelos buscadores Google, Yahoo e Ask: uma nova forma de indicar o local do arquivo sitemaps dentro do arquivo robots.txt.

O robots.txt é uma outra maneira de dar um passo a mais no relacionamento positivo com o seu buscador. Além servir para apontar as regras que o robô deverá seguir para indexar suas páginas, serve também para indicar para o buscador que o seu site está online e ativo.

Imagine um grupo de 40 mil sites. Digamos que 10% deles têm chances de estar offline; para verificar se um site está online ou offline o retorno pode demorar de 15 a 30 segundos. Multiplique este tempo pelos 10% destes 40 mil e você obterá o tempo perdido pelo spider com os sites offline. Sem contar que o spider deve ficar chateado com o seu endereço (ou ficaria, se fosse humano)…

Sendo assim, crie um arquivo robots.txt; mesmo que seja em branco, você ganha pontos.

Agora veja algumas dicas que podem tornar o relacionamento do seu site com os buscadores mais saudável e positivo:

  • Faça com que todas as páginas do seu site sejam acessíveis a partir da página principal a não mais do que 3 cliques.
  • Crie o sitemap para o seu site indicando quais páginas você gostaria que o buscador indexe.
  • Considere ter no máximo 250-300 palavras em cada página do seu site. Se você cria páginas muito longas, os spiders podem ignorá-la. Geralmente os buscadores não indexam mais do que 100kb de texto mas páginas.
  • Evite colocar conteúdo em imagens ou em animações flash de forma não acessível. Os buscadores não conseguem adivinhar o que tem lá em termos de conteúdo.
  • Tenha certeza de que seu site não tem links quebrados ou erros comuns expostos.
  • Se possível não use crie navegações via script, pois os buscadores não conseguem ler tais scripts.
  • Se o seu site possui páginas dinâmicas, evite passar muitos parâmetros via query string; os buscadores não são espertos o suficiente para entender todos os parâmetros
  • Você pode usar o arquivo robots.txt para informar o spider como ele deve se portar no seu site.
  • Tenha certeza de que o seu site está online o tempo todo.
  • Faça com seu site seja indicado em grandes sites do seu ramo de atuação ou relacionado ao conteúdo do seu site. Isso fará com que seu site seja indexado rapidamente e com um nível alto de page rank.
  • Dê uma atenção especial para as suas metas tags. Apesar delas estarem começando a ser extintas pelo uso de valor dos buscadores. A maioria delas tende a desaparecer com o tempo, mas recomendo que não as ignore.

Estas são algumas das dicas para melhorar o relacionamento do seu site com os spiders. Temos que levar em consideração também que os buscadores não são preciptados; um grande número de sites é indexado todos os dias e um fator crucial para saber se o site vai ou não para o topo é o “tempo de vida” de um portal. A idade do domínio tem grande influência na relevância e na força das palavras chaves que estão expostas no site. [Webinsider]

.

Igor Escobar é desenvolvedor e mantém um blog.

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

Mais lidas

5 respostas

  1. OLá, gostei muito da matéria.

    Gostaria de saber se você pode falar um pouco mais a importância do domínio para SEO.

    Porque já vi alguns sites que usam mais de um domínio para levar ao mesmo conteúdo, geralmente um dos domínios é a palavra chave mais comum que gera resultado.

    Estou tentando fazer isso mais dai como faço com SiteMaps e tal? indico o mesmo?

    Obrigado e parabéns pela matérias .

  2. Olá amigo, obrigado pelos elogios!

    O sitemap.xml deve ficar aonde você melhor desejar. recomendo que fique na raiz do seu site.

    Depois você deve usar o Google Webmaster Tool ou o robots.txt para indicar o local do sitemap.

    Abraços.

  3. Olá.
    Amigo, muito obrigado pela dica do gerador de sitemaps, eu estava quebrando a cabeça pra achar um bom gerador. Só uma dúvida: eu não preciso fazer uma página no meu site com o sitemap, correto? Eu posso deixar só o sitemap.xml na raiz da página, sem uma página html com o sitemap?
    Obrigado pela dica.
    Abraço.

  4. Olá Tárcio!
    Então, é bem simples, faça a seguinte analogia.

    As metas tags um dos usos dela é para dar valor semântico a uma determinada página ou site correto?

    Se os sites hoje em dia estão cada vez mais semânticos e acessíveis, não faz sentido utilizar um recurso tão limitado para dar valor semântico a um documento certo?

    Isso foi falado em alguns endereços na Internet, no momento não me recordo.

    Qualquer coisa comento por aqui.

    Abraços.
    Igor.

  5. Ótimo artigo! Excelentes links de referência e um checklist final muito útil e eficiente!

    Só uma coisa: poderia explicar melhor a parte das meta tags estarem começando a ser extintas pelo uso de valor dos buscadores?

    Parabéns!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *