Depois de muito tempo estamos de volta com a coluna, agora com o objetivo de responder perguntas dos leitores sobre SEM (de Search Engine Marketing), seja para SEO (de Search Engine Optimization, ajustes para que um site seja bem indexado e posicionado pelos buscadores), seja de links patrocinados, para extrair o melhor resultado de suas campanhas.
Para começar, a primeira pergunta foi lançada pelo próprio Vicente Tardin, o editor do Webinsider, procupado em como atender os requisitos de buscadores em sites que utilizam Ajax. Vamos à nossa resposta, lembrando que há espaço nos comentários para aprofundar o debate e sugestão de novos temas. Não podemos responder a todas as perguntas, mas vamos procurar atender as mais instigantes ou mais úteis. Segue a dúvida de hoje:
– A pergunta é sobre um site que utiliza programação em Ajax que desconfio estar atrapalhando a indexação dos conteúdos. O site tem bom pagerank, mas o buscador não impacta muito na audiência. Criamos uma página para o robôzinho e aos poucos as matérias aparecem nos resultados de busca. Mas ainda há espaço para melhorias nesse sentido?
Para se usar Ajax e não prejudicar o conteúdo é preciso que a requisição dos conteúdos e links não seja feita pelos scripts de Javascript. Para tanto, o conteúdo deve estar no HTML da página. Interação com os dados do aplicativo, plugins e outras interações com o servidor, podem estar no Javascript
Assim, com o carregamento da página é possível logo depois usar o Ajax para mudar o conteúdo de uma forma dinâmica (para todos aqueles que tenham o Javascript ativado).
É muito importante que estejam presente nos próximos desenvolvimentos de um website Ajax as seguintes premissas:
1. Criar interfaces dinâmicas que balanceiem a interatividade do Ajax e os atributos de um site baseado em páginas estáticas = conteúdo e URLs;
2. Implementar o Ajax para que seja interativo, mas, fundamentalmente, que seja “bookmarkable”. Ou seja, que as pessoas possam marcar os conteúdos e apontar links (URLs) trocando-os e recomendando-os. As URLs são também os caminhos utilizados pelos robôs dos buscadores para encontrar e indexar os conteúdos.
Exemplo:
É preciso criar URLs que contenham as palavras-chave do menu. Desta forma o robô terá o caminho simplificado para navegar pelas páginas. Assim, é melhor http://www.seusite.com.br/carros.php e não http://www.seusite.com.br/#carros.
Um bom exemplo de site que aplica esse tipo de solução é o Digg, cujo conteúdo pode ser visto com ou sem as funcionalidades do Ajax habilitadas. O Digg mostra conteúdo e URLs aos robôs, possibilitando a indexação por parte de qualquer buscador.
As maneiras para deixar páginas em Ajax amigáveis aos buscadores são as mais variadas.
E alguém se habilita a comentar essa questão e mesmo enviar novas perguntas? [Webinsider].
.
15 respostas
Boa dica!
http://www.afesta.biz
Consegui boa colocação descobrindo como os buscadores funcionam. è o unico negocio que da certo.
Dj Gustavo Effe
http://www.djgustavo.net
Muito bom artigo! Realmente depois de mudar algumas coisas no ajax de meu site percebi uma melhora no serps.
Obrigado
A solução que eu tive foi esta:
http://www.ecbsistemas.com/umadg
podem ver que se desabilitarem o javascript funciona da mesma maneira, pois aí eu dou include da url na div conteudo onde o ajax iria fazer a mesma coisa mas de maneira assícrona.
Quaisquer dúvida sobre o meu código entrem em contato!
valew!
fuiz
Olá,
Excelente artigo Alexandre, parabéns. Tenho tido dificuldades em encontrar artigos que abordem temas técnicos de SEO.
Leandro Costa: dê uma olhada no artigo do link abaixo. Em português, um dos melhores artigos que encontrei sobre URL rewriting.
http://www.imasters.com.br/artigo/5382/webstandards/url_rewriting_criando_urls_competitivas/
Abraços,
Gustavo
Para se usar Ajax e não prejudicar o conteúdo é preciso que a requisição dos conteúdos e links não seja feita pelos scripts de Javascript. Para tanto, o conteúdo deve estar no HTML da página. Interação com os dados do aplicativo, plugins e outras interações com o servidor, podem estar no Javascript
Pergunta: Ajax é interação assíncrona com o servidor via Javascript, trazendo conteúdo XML. Se você já tem esse conteúdo carregado na página e só manipula seu aparecimento para o usuário via Javascript, isso continua sendo Ajax? =)
Na minha opinião, o uso indiscriminado de Ajax deve ser evitado, ele deve ser usado somente para interação com o usuário, melhorando a usabilidade. O conteúdo mostrado ao usuário não deve ter nenhuma porcaria, somente conteúdo mesmo, e é isso o que importa aos robos indexadores.
Andre Metzen,
Não é não-obstrutivo, é não-obstrusivo, ou em inglês: unobtrusive.
Vou descrever as 3 camadas que tu dissestes:
– (X)HTML: Estrutura
– CSS: Formatação
– JS: Comportamento
Não há jeito melhor de se construir sites. Pena que são raros os que fazem isto (ou sabem).
Gostei do artigo Alexandre! E parabéns também para a Débora e cia.
Quando desenvolvi o 0BR.com.br que usa AJAX, pensei exatamente neste conceito, só que com um detalhe principal. O sistema tinha que funcionar para quem não tem o javascript habilitado. Em resumo, o serviço tem que ser acessível para todos, inclusive para os robôs de busca (spiders).
Leandro Costa, o Bruno Torres escreveu um artigo que esclarece bem como criar URLs amigáveis:
http://brunotorres.net/urls
Grande abraço,
Para eliminar esse problema de indexação, o jeito mais simples é desenvolver o client-side do site em camadas. Primeiro o (x)html, depois o CSS, e depois que você garantir que está tudo funcionando assim, é que se pode inserir Javascript para aperfeiçoar a experiência do usuário. Utilizando o que costuma-se chamar de javascript não-obstrutivo.
Abraços.
Pessoal, obrigado pela participação e pelos elogios. Mas os créditos são muito mais da minha equipe do que meus. Pra não fazer nenhuma injustiça, seguem os verdadeiros responsáveis pela resposta:
Debora Alonso, Paula Lorenzi, Pablo Ibarrolaza e Anderson Santos, os méritos são todos deles.
Mandem perguntas, vamos responder uma por semana, pode ser do básico ao avançado, não se avexem
Muito boa materia, como sempre o Alexandre mandando muito bem.
Seria interessante uma matéria abordando como criar url`s mais amigaveis, com palavras-chave, tornando a indexaçnao pelos buscadores mais fácil e consequentemente trazendo maiores retornos aos sites que utilizão essa idéia.
Dêem uma procurada por degradação controlada. É quando você prepara o conteúdo para ser visualizado com ou sem javascript. Não é algo apenas feito para o robô ver o conteúdo, é questão de acessibilidade. Boa matéria, difícil achar algo sobre o assunto em português.
Mto bacana o artigo! é uma coisa que realmente temos que pensar… Atualmente estamos desenvolvendo utilizando uma url no href com e um return false no evento onclick pra cancelar o evento caso seja um navegador e não um robo… esse href joga o buscador pra um índice no caso de links padrão rss para categorias e os de notícia pra um xhtml válido somente com os dados da notícia. Estamos com a ferramenta em teste, mas até então tem funcionado bem. Continuemos os testes =)
Nunca tive a coragem de utilizar AJAX num website para o público em geral, limitando-me a utilizá-lo em back ends, onde tenho um controle sobre o ambiente no qual o sistema será acessado. Porém, uma única vez tive que fazer um front end utilizando todas as chamadas em AJAX (inclusive a home), porém, dando atenção à questão do SEO. Minha solução foi a seguinte: fazer o link normalmente e colocando a chamada AJAX no onclick, finalizando com um return false. Assim, os robos dos buscadores tem o seu link para seguir, e o usuário tem a sua chamada AJAX para facilitar a navegação. Todos satisfeitos.
Grande abraço,
Ved