Para o Ajax não atrapalhar os buscadores

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

Depois de muito tempo estamos de volta com a coluna, agora com o objetivo de responder perguntas dos leitores sobre SEM (de Search Engine Marketing), seja para SEO (de Search Engine Optimization, ajustes para que um site seja bem indexado e posicionado pelos buscadores), seja de links patrocinados, para extrair o melhor resultado de suas campanhas.

Para começar, a primeira pergunta foi lançada pelo próprio Vicente Tardin, o editor do Webinsider, procupado em como atender os requisitos de buscadores em sites que utilizam Ajax. Vamos à nossa resposta, lembrando que há espaço nos comentários para aprofundar o debate e sugestão de novos temas. Não podemos responder a todas as perguntas, mas vamos procurar atender as mais instigantes ou mais úteis. Segue a dúvida de hoje:

– A pergunta é sobre um site que utiliza programação em Ajax que desconfio estar atrapalhando a indexação dos conteúdos. O site tem bom pagerank, mas o buscador não impacta muito na audiência. Criamos uma página para o robôzinho e aos poucos as matérias aparecem nos resultados de busca. Mas ainda há espaço para melhorias nesse sentido?

Para se usar Ajax e não prejudicar o conteúdo é preciso que a requisição dos conteúdos e links não seja feita pelos scripts de Javascript. Para tanto, o conteúdo deve estar no HTML da página. Interação com os dados do aplicativo, plugins e outras interações com o servidor, podem estar no Javascript

Assim, com o carregamento da página é possível logo depois usar o Ajax para mudar o conteúdo de uma forma dinâmica (para todos aqueles que tenham o Javascript ativado).

É muito importante que estejam presente nos próximos desenvolvimentos de um website Ajax as seguintes premissas:

1. Criar interfaces dinâmicas que balanceiem a interatividade do Ajax e os atributos de um site baseado em páginas estáticas = conteúdo e URLs;

2. Implementar o Ajax para que seja interativo, mas, fundamentalmente, que seja “bookmarkable”. Ou seja, que as pessoas possam marcar os conteúdos e apontar links (URLs) trocando-os e recomendando-os. As URLs são também os caminhos utilizados pelos robôs dos buscadores para encontrar e indexar os conteúdos.

Exemplo:

É preciso criar URLs que contenham as palavras-chave do menu. Desta forma o robô terá o caminho simplificado para navegar pelas páginas. Assim, é melhor http://www.seusite.com.br/carros.php e não http://www.seusite.com.br/#carros.

Um bom exemplo de site que aplica esse tipo de solução é o Digg, cujo conteúdo pode ser visto com ou sem as funcionalidades do Ajax habilitadas. O Digg mostra conteúdo e URLs aos robôs, possibilitando a indexação por parte de qualquer buscador.

As maneiras para deixar páginas em Ajax amigáveis aos buscadores são as mais variadas.

E alguém se habilita a comentar essa questão e mesmo enviar novas perguntas? [Webinsider].

.

Alexandre Kavinski (kavinski@gmail.com) é um hopeless romantic.

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

Mais lidas

15 respostas

  1. Para se usar Ajax e não prejudicar o conteúdo é preciso que a requisição dos conteúdos e links não seja feita pelos scripts de Javascript. Para tanto, o conteúdo deve estar no HTML da página. Interação com os dados do aplicativo, plugins e outras interações com o servidor, podem estar no Javascript

    Pergunta: Ajax é interação assíncrona com o servidor via Javascript, trazendo conteúdo XML. Se você já tem esse conteúdo carregado na página e só manipula seu aparecimento para o usuário via Javascript, isso continua sendo Ajax? =)

    Na minha opinião, o uso indiscriminado de Ajax deve ser evitado, ele deve ser usado somente para interação com o usuário, melhorando a usabilidade. O conteúdo mostrado ao usuário não deve ter nenhuma porcaria, somente conteúdo mesmo, e é isso o que importa aos robos indexadores.

  2. Andre Metzen,

    Não é não-obstrutivo, é não-obstrusivo, ou em inglês: unobtrusive.
    Vou descrever as 3 camadas que tu dissestes:
    – (X)HTML: Estrutura
    – CSS: Formatação
    – JS: Comportamento
    Não há jeito melhor de se construir sites. Pena que são raros os que fazem isto (ou sabem).

  3. Gostei do artigo Alexandre! E parabéns também para a Débora e cia.

    Quando desenvolvi o 0BR.com.br que usa AJAX, pensei exatamente neste conceito, só que com um detalhe principal. O sistema tinha que funcionar para quem não tem o javascript habilitado. Em resumo, o serviço tem que ser acessível para todos, inclusive para os robôs de busca (spiders).

    Leandro Costa, o Bruno Torres escreveu um artigo que esclarece bem como criar URLs amigáveis:
    http://brunotorres.net/urls

    Grande abraço,

  4. Para eliminar esse problema de indexação, o jeito mais simples é desenvolver o client-side do site em camadas. Primeiro o (x)html, depois o CSS, e depois que você garantir que está tudo funcionando assim, é que se pode inserir Javascript para aperfeiçoar a experiência do usuário. Utilizando o que costuma-se chamar de javascript não-obstrutivo.

    Abraços.

  5. Pessoal, obrigado pela participação e pelos elogios. Mas os créditos são muito mais da minha equipe do que meus. Pra não fazer nenhuma injustiça, seguem os verdadeiros responsáveis pela resposta:
    Debora Alonso, Paula Lorenzi, Pablo Ibarrolaza e Anderson Santos, os méritos são todos deles.

    Mandem perguntas, vamos responder uma por semana, pode ser do básico ao avançado, não se avexem 😉

  6. Seria interessante uma matéria abordando como criar url`s mais amigaveis, com palavras-chave, tornando a indexaçnao pelos buscadores mais fácil e consequentemente trazendo maiores retornos aos sites que utilizão essa idéia.

  7. Dêem uma procurada por degradação controlada. É quando você prepara o conteúdo para ser visualizado com ou sem javascript. Não é algo apenas feito para o robô ver o conteúdo, é questão de acessibilidade. Boa matéria, difícil achar algo sobre o assunto em português.

  8. Mto bacana o artigo! é uma coisa que realmente temos que pensar… Atualmente estamos desenvolvendo utilizando uma url no href com e um return false no evento onclick pra cancelar o evento caso seja um navegador e não um robo… esse href joga o buscador pra um índice no caso de links padrão rss para categorias e os de notícia pra um xhtml válido somente com os dados da notícia. Estamos com a ferramenta em teste, mas até então tem funcionado bem. Continuemos os testes =)

  9. Nunca tive a coragem de utilizar AJAX num website para o público em geral, limitando-me a utilizá-lo em back ends, onde tenho um controle sobre o ambiente no qual o sistema será acessado. Porém, uma única vez tive que fazer um front end utilizando todas as chamadas em AJAX (inclusive a home), porém, dando atenção à questão do SEO. Minha solução foi a seguinte: fazer o link normalmente e colocando a chamada AJAX no onclick, finalizando com um return false. Assim, os robos dos buscadores tem o seu link para seguir, e o usuário tem a sua chamada AJAX para facilitar a navegação. Todos satisfeitos.

    Grande abraço,

    Ved

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *