O Google e a indústria dos resultados das buscas
Todos sabem que o Google é líder no mercado de buscas na Web. Essa foi uma posição que conquistou desde cedo oferecendo uma melhor experiência de uso e resultados mais relevantes para os seus usuários.
A grande audiência que o Google atrai tornou-se importante também para todo tipo de sites que podem se beneficiar de grandes quantidades de visitantes que chegam pelas buscas do Google, sem que precisem fazer grandes investimentos de marketing.
Quanto mais visitantes os sites receberem trazidos das buscas, melhor. Mais visitantes muitas vezes significa mais receita gerada pelos sites, seja em forma de publicidade, produtos vendidos, ou qualquer outra forma de rentabilização. Para isso é necessário que as páginas dos sites estejam bem classificadas nos resultados das buscas.
A partir do momento que os editores dos sites ganham consciência desta realidade, o esforço para terem os seus sites bem classificados no Google torna-se uma preocupação permanente.
A ciência do SEO, ou Search Engine Optimization
Search Engine Optimization (SEO) é o nome em inglês usado para designar este esforço de maximizar o número de visitantes que os sites recebem, não apenas do Google, mas também de outros sites de busca.
Esta atividade tornou-se tão importante e requer um conhecimento de tal forma especializado, que hoje em dia existem inúmeras empresas com profissionais especializados em SEO, prontas para atender sites de quem não tem o conhecimento necessário para otimizar os seus próprios sites.
Nos primórdios, o Google usava o algoritmo chamado de Page Rank para classificar as páginas e determinar quais apareciam primeiro quandos os usuários buscavam por determinadas palavras. Este algoritmo considerava o peso dos links que apontavam para uma página e também dos links que essa página contém.
Práticas de SEO banidas – Black Hat
Depois de ter entendido essa premissa do algoritmo do Page Rank, não faltaram editores de sites e profissionais de SEO que buscavam formas de plantar links noutros sites, só para conseguir que suas páginas apareçam melhor classificadas nos resultados do Google.
Essa prática começou a desvirtuar a qualidade dos resultados do Google porque permitia que páginas menos relevantes aparecessem primeiro que outras páginas que tinham mais a ver com o que os usuários estavam buscando. Ou seja, os resultados das buscas começavam a ser estragados por páginas consideradas como spam.
A partir do momento que o Google se apercebeu disso, passou a publicar regras que os editores de sites deveriam cumprir para terem as suas páginas listadas no Google. Em suma essas regras ditavam que certas práticas, conhecidas como Black Hat, são banidas e os sites que forem apanhados a descumpri-las podem ser punidos de forma a perderem as visitas que até então estavam recebendo das buscas no Google.
Ao longo do tempo o Google foi melhorando os seus algoritmos para pegar e punir sites que empregam técnicas proibidas. Mas essa é uma corrida de gato e rato. Se alguns sites são pegos através de novas abordagens de detecção adotadas pelo Google, rapidamente outros sites se adaptam para não serem apanhados.
O Google chegou a pedir que os seus usuários façam denúncias para que eles descubram as novas tácticas de editores de sites e profissionais que empregam abordagens maliciosas.
Em alguns casos o Google pune os sites descobertos. Noutros, apenas adapta os seus algoritmos para que os casos denunciados seja pegos automaticamente pelo sistema sem precisar de punição manual aplicada por um responsável do Google.
Páginas de baixa qualidade – fazendas de conteúdo
Um problema que o Google até aqui ainda não tinha conseguido combater é o das páginas de baixa qualidade. Antes de mais nada, importa esclarecer o que é baixa qualidade. É simples de descrever, mas difícil de detectar sem intervenção humana. Quando um usuário vai a uma página que apareceu nos resultados de busca do Google e descobre que a página não é útil, para esse usuário a página não tem qualidade.
Um tipo de página de baixa qualidade que ao longo dos anos começou a surgir, e em alguns casos a dominar a busca do Google, são as páginas produzidas pelas chamadas fazendas de conteúdo (content farms). Esse é o nome usado para denominar sites criados deliberadamente para atrair elevado número de visitantes vindos das buscas do Google.
Trata-se de páginas criadas de forma sintética por pessoas, por vezes sem qualificação, a quem foi encomendado que escrevam artigos, frequentemente de valor duvidoso, mas que contém certas palavras escolhidas a dedo por serem palavras que são muito buscadas no Google.
O problema é que essas páginas muitas vezes não têm conteúdo de valor para os usuários, apesar de conterem as palavras usadas na busca do Google. Por vezes são páginas feitas por pessoas que foram pagas para escrever algo com essas palavras, pessoas que nem sequer são do ramo dos assuntos sobre o qual estão a escrever. Em alguns casos são artigos publicados sem qualquer moderação por alguém que pondere sobre a utilidade do que foi escrito.
Existem alguns sites que foram criados deliberadamente para criar páginas desta forma. Por isso foram chamados de fazendas de conteúdo.
Este problema começou-se a agravar nos últimos anos, não apenas porque os usuários que eram levados até a essas fazendas de conteúdo pelo Google não viam utilidade nessas páginas, mas também porque outros sites com páginas escritas realmente por pessoas que entendiam dos assuntos começaram a perder audiência e também receita que os seus editores precisavam para os sustentar.
A atualização Panda
Recentemente, mais especificamente no dia 24 de fevereiro, o Google lançou uma atualização nos critérios de ordenação de resultados de buscas que tem em vista atacar o problema das páginas de baixa qualidade.
Por enquanto esta atualização apenas afeta os resultados para quem está nos Estados Unidos e faz buscas no Google.com. Quer dizer que por agora quem estiver no Brasil, Portugal, ou qualquer outro país tirando os Estados Unidos, ainda não vai ver nenhuma diferença.
No entanto, o Google está testando esta atualização para fazer eventuais ajustes, o que pode demorar pouco tempo a concluir. Pelo que pode ser uma questão de dias, ou semanas no máximo, até que esta atualização seja propagada para todo resto do mundo.
Por isso, se você é um editor ou um profissional de SEO, é muito importante saber como funciona esta atualização e o que você pode fazer para não afetar os seus sites.
Mas afinal como funciona a atualização Panda?
O Google nunca revela exatamente como funciona cada atualização. O motivo prende-se com o fato de não querer ajudar pessoas com intenções maliciosas a inventar novas tácticas para burlar os métodos de deteção e classificação de páginas que possam ser prejudicadas com as alterações de classificação de resultados. Porém não falta quem se proponha a explicar como funciona.
Eu próprio fui analisar as estatísticas das visitas vindas do Google aos meus sites estes dias para ver se tinham sido afetados por esta atualização.
A princípio fiquei surpreendido que tinham caido 10% entre a semana anterior e a seguinte ao dia 24. Fiquei chateado porque nos meus sites não existem páginas criadas de forma sintética só para atrair visitantes do Google. Aliás, os meus sites são de conteúdo contribuido pelos usuários. Mas cada contribuição é moderada. Isto significa que eu mesmo revejo e descrevo todo conteúdo antes de ser publicado.
No caso são sites de componentes de programação. Todos os dias eu gasto entre 1 a 2 horas para analisar o código dos componentes contribuídos. Eu mesmo escrevo uma descrição sobre o que os componentes fazem e para que servem.
Se eu não fizesse isto e deixasse para os autores do código contribuído descreverem, resultaria em algo bem inútil, dado que muitos autores não sabem escrever em inglês ou então dispersam-se a falar como o seu código é maravilhoso sem explicar exatamente o que faz. Resumindo, de fato o conteúdo publicado é curado e algum que não satisfaz certos critérios é rejeitado.
Então por que os meus sites perderam 10% das visitas vindas do Google? Decidi gastar um pouco de tempo e analisar as estatísticas antes e depois da data da atualização Panda. Fui no site WebmasterTools, baixei arquivos com as estatísticas das palavras que levaram usuários aos meus sites. Fiz um script para comparar e determinar quais as palavras de buscas que perderam mais visitantes.
Os resultados da análise foram reveladores. De fato a esmagadora maioria das palavras que perderam mais visitantes apontavam para páginas que talvez não fossem úteis a pessoas que não são usuários típicos dos meus sites.
Vou dar dois exemplos meramente ilustrativos. Um deles era sobre as palavras Djibouti authors. Djibouti é um pequeno país pouco conhecido. No meu site tenho páginas que listam os contribuidores de cada país do mundo. No caso, o meu site não tem contribuidores de Djibouti. Mas a página existe só para dizer isso.
Penso que já dá para entender porque este página não é útil para quem faz buscas no Google. Quem vai buscar no Google, dificilmente quer saber quem são os autores que contribuem nos meus sites, não apenas do Djibouti, mas de qualquer país. Tendo em conta que eu tenho mais de 200 páginas assim, uma para cada país, dá para entender que a eventual perda de visitantes de todas essas páginas somadas, começa a ser significativa.
Um outro exemplo era com buscas com a palavra mycantos. Nunca tinha ouvido falar que essa palavra pudesse suscitar tantas buscas no Google. Fui-me informar melhor. MyCantos é um serviço gratuito para envio de mensagens SMS na India.
Há dois anos um contribuidor indiano enviou um componente de programação para enviar mensagens SMS através do MyCantos usando um script em PHP. Acredito que muitos usuários que eram levados à página desse componente nem sequer eram programadores. Chegando na página devem ter visto que não era bem o que eles pensavam.
Mas como o Google consegue detectar páginas de baixa qualidade?
A resposta mais sincera, é que ninguém sabe, tirando os funcionários do Google, claro. Pelo que só nos resta dar alguns palpites baseados em pressupostos razoáveis. Vou tentar.
Como mencionei acima, páginas de baixa qualidade são páginas que não são úteis aos usuários que as visitam. Se não são úteis, o que fazem os usuários quando são levados as essas páginas pelo Google? Normalmente voltam atrás e tentam outro resultado.
Então parece-me plausível pressupor que o Google tenha desenvolvido um método de contabilizar quantas vezes os usuários que são levados a uma dada páginas dos resultados, voltam rapidamente à página de resultados e clicam noutro resultado.
Uma página que é apenas visitada uma vez e logo usuário volta, é uma página com alta taxa de rejeição (bounce rate). Se o Google considerar a taxa de rejeição das páginas e diminuir a classificação dessas páginas para as palavras buscadas, as páginas ditas de baixa qualidade começam a deixar de receber visitas vindas das buscas do Google.
Mesmo sem ter a certeza se realmente é isso que o Google faz, a solução para o problema precisaria ser bastante engenhosa, dado que requer uma elevada capacidade de processamento de dados. O Google precisaria manter um banco de dados muito volumoso de estatísticas de cada palavra de busca, cada página visitada, tempo que o usuário demorou para voltar à página de buscas. Depois precisaria de processar todos esses dados em tempo útil para reconsiderar a classificação de páginas de resultados das busca.
Talvez não por coincidência um engenheiro do Google chamado Biswanath Panda, junto com outros engenheiros do Google, publicou um estudo sobre uma técnica chamada PLANET, que foi apresentado em 2009 precisamente numa conferência sobre processamentos de grandes bases de dados.
O Google decidiu designar esta atualização de Panda precisamente em homenagem a um grande avanço (breakthrough) introduzido por um engenheiro com esse nome. Consta que o trabalho de Panda já tinha sido usado para processamento de dados de cliques em anúncios do AdWords para determinar se as páginas de destino dos cliques são eficientes. Agora parece natural que o trabalho de Panda esteja sendo usado para processar a grande quantidade de dados que permite avaliar a taxa de rejeição das páginas que aparecem nos resultados de busca.
Se é válida esta teoria de que o Google está avaliando a taxa de rejeição das páginas para reconsiderar a sua classificação nos resultados de busca, então deveríamos estar observando uma redução na taxa de rejeição de cada site considerando todas as palavras de busca que lhes levam visitantes do Google.
Fui avaliar a minha taxa de rejeição nos períodos de antes e depois da atualização, e Bingo! Nas buscas feitas apenas por usuários dos Estados Unidos a taxa de rejeição caiu muito a partir do dia 24. Nos restantes países ficou mais ou menos na mesma.
Pronto, acho que matei a charada! Se não for esta a explicação correta de como funciona o Panda, é com certeza algo que tem muito a ver.
O que fazer para se preparar para aplicação da atualização Panda em todo o mundo?
Esta atualização vai levar que a maior parte dos sites perca visitantes de algumas buscas, mas também podem ganhar noutras. Então não vai ser necessariamente mau para todos. Cada caso é um caso. O que você precisa é avaliar o seu caso para saber se precisa de agir de alguma forma.
Primeiramente você precisa ter algumas métricas para poder avaliar se tem o que fazer ou não. Para isso a principal recomendação é que você tenha todos seus sites inscritos no Google Analytics e no Webmaster Tools. Esses sites fornecem todas métricas que precisa de graça.
Uma das métricas que importa avaliar é a taxa de rejeição (bounce rate) das suas páginas. Se os seus sites têm uma taxa de rejeição baixa, quase de certeza não tem o que se preocupar. Se você tem muitas páginas com taxa de rejeição alta em relação a visitas vindas do Google, precisa identificar quais são essas páginas, que palavras de busca estão levando a uma maior rejeição, e tentar melhorar o conteúdo dessas páginas para satisfazer melhor os usuários que estão buscando por essas palavras.
No entanto gostaria de fazer uma ressalva. O Google Analytics tende a dar valores de taxa de rejeição muito mais elevados do que a rejeição real. O que se passa é que o Google Analytics considera que o usuário rejeitou uma página no seu site se depois de visitar essa página o usuário não visitou mais nenhuma.
Acontece que se você tem uma página interessante, o usuário pode ficar lendo tudo que tem nela durante muito tempo e simplesmente sair. Isso não é uma rejeição. A rejeição real que importa cuidar é a de usuários que voltam para página de busca para ver outros resultados das mesmas palavras.
Claro que se você conseguir baixar a rejeição real, vai conseguir baixar também a rejeição medida pelo Google Analytics. Então os valores informados pelo Google Analytics servem apenas como referência para avaliar se melhorou ou piorou se fizer mudanças no seu conteúdo.
Outra coisa, alguns editores de sites e profissionais de SEO recomendam que você inclua links e outros atrativos para manter os usuários nos sites depois que eles visitam as páginas de chegada. Isso pode ajudar, mas não implica que o usuário insatisfeito não acabe voltando à busca e portanto a rejeição acabe acontecendo.
Recomendações para minimizar a rejeição das páginas de sites
Algumas das seguintes recomendações foram apresentadas em uma palestra que dei recentemente em Portugal sobre o Negócio dos Sites de Conteúdo Contribuído pelo Usuário. Estou usando o sotaque do português de Portugal, mas espero que dê para os brasileiros entenderem (sem legendas). Os slides da palestra também estão disponíveis em formato de SlideCast permitindo escutar a palestra enquanto vê os slides.
-
Preste atenção às reclamações
Um sintoma de que algo está errado nos seus sites é quando os usuários reclamam muito sobre a mesma coisa. Uma reclamação aqui ou ali é normal. Agora muitas reclamações sobre o mesmo problema é algo que pode precisar de uma intervenção específica.
Infelizmente nem sempre todos usuários que reclamam se dão ao trabalho de escrever para o seu site sobre isso. É algo tão chato que desistem.
Por outro lado, se tem algum lugar que muitos usuários usam para desabafar e reclamar de coisas que eles lamentam é no Twitter. Parece que no Twitter é o lugar que os usuários ficam à vontade para “pensar em voz alta” e expressar descontentamento sobre outros, que noutro lugar não teriam coragem de o fazer.
A parte mais útil do Twitter é que você pode vigiar tudo que é dito porque os comentários normalmente são públicos. Então se você precisa saber o que estão falando de bom ou de mal sobre os seus sites no Twitter, basta fazer uma busca pelo nome dos sites.
Mas não precisa ficar o dia inteiro de plantão fazendo essa busca no Twitter. Cada busca no Twitter tem o feed RSS associado. Se você assinar esse feed RSS com um programa de leitura de feeds tipo iGoogle, Mozilla Thunderbird, etc.. você consegue acompanhar tudo que estão falando sobre seus sites, gastando pouco tempo por dia olhando os feeds.
Portanto se você quer assinar o feed RSS (Atom) da busca do Twitter sobre por exemplo webinsider, assine este URL:
http://search.twitter.com/search.atom?q=webinsider
Para empresas conhecidas, há quem use muito sites como o ReclameAqui para desabafar. Mas normalmente esses desabafos já são sobre situações mais graves relacionadas com produtos dessas empresas, não tanto com sites. Mas não é má ideia ficar de olho nesses sites porque não se sabe quando os seus usuários se podem dar ao trabalho de contestar os seus sites.
Em qualquer dos casos o que importa é verificar se os usuários estão reclamando de algo recorrente sobre os seus sites, mais do que você ficar meramente tentando abafar cada situação que está sendo reclamada.
-
Minimize o tempo de carga das páginas
Usuários sem paciência desistem das suas páginas. Veja quanto tempo as suas páginas demoram a carregar. Se demorar muito, tipo mais de 10 segundos para o conteúdo relevante começar a aparecer, o seu problema é grave. O site Webmaster Tools também mostra a velocidade de carga das páginas do seu site.
Veja o que pode estar atrasando a carga das suas páginas. Sobre isto daria um artigo inteiro para falar. Mas resumidamente, veja se tem conteúdos de grande tamanho para baixar, como imagens pesadas ou scripts externos atrasando a carga das suas páginas.
Um dos tipos de conteúdo que mais atrasa a carga das páginas é publicidade. Ironicamente muitos sites usam publicidade do Google AdSense para gerarem receita. Porém demasiada publicidade pode tornar o site demasiado lento, e assim aumentar a sua rejeição, e você perde visitantes por isso. Mas se você precisa da receita da publicidade para sustentar os seus sites. O que fazer?
Uma das reclamações recorrentes que eu notei muito no Twitter era de usuários reclamando da lentidão da carga das páginas. Mas os meus sites não são lentos. Estão em servidor dedicado e as páginas são servidas de forma altamente otimizada.
O problema não estava nos meus sites, mas sim na publicidade que é carregada de outros servidores, como as do Google AdSense, que atrasam a carga das páginas em cada ponto onde a publicidade é inserida.
Depois de muito deliberar no assunto cheguei a uma solução que consiste em atrasar o carregamento da publicidade e outros elementos externos, como botões do Twitter e Facebook, de modo que esses elementos apenas carregam quando toda página estiver carregada.
A solução para isso foi desenvolver um componente de JavaScript que faz aparecer a publicidade e outros elementos de forma retardada. Essa solução foi quase milagrosa. Desde que foi implementada deixei de ver usuários reclamando no Twitter sobre a lentidão de carga nas páginas. Curiosamente não notei perda de receita de publicidade com a mudança, ao contrário do que eu temia.
Esse componente de JavaScript chama-se Fast Page Content Loader e foi disponibilizado de forma gratuita no site JSClasses. Para quem se interessar em experimentar, tem aqui dois artigos interessantes no blog desse componente, um sobre como acelerar a carga de páginas e outro sobre como dar prioridade à carga de certos elementos das páginas.
-
Use um design credível
É antigo o ditado que diz que a primeira impressão é a que fica. Se o seu site tem um ar descuidado ou com aparência antiquada, isso vai se refletir na vontade das pessoas de explorá-lo. Um design que não inspira credibilidade pode influênciar muito na sua rejeição.
Eu não sou designer, sou desenvolvedor. Mas isto é uma questão de bom senso. Durante muitos anos recebi reclamações de muitos usuários que achavam o design do site PHPClasses antiquado porque pouco ou nada foi mudado ao longo dos tempos. Essa era um dos tipos de reclamação que recebia muito pelo Twitter ou por e-mail.
Desde 2002 eu queria que os usuários pudessem eles mesmos mudar o design do site ou mesmo propôr novos temas de designs que outros possam usar. Porém era preciso desenvolver um sistema que permitisse os usuários trocarem o design, sem poder introduzir código malicioso em JavaScript. Ao mesmo tempo queria que se fosse para trocar, teria de ser algo aprovado pela maioria dos usuários que se importam com questões de design.
Era necessário desenvolver um sistema complexo de edição e votação de novos designs. Por isso a ideia foi retardada até 2008 quando finalmente me fartei das reclamações e decidir dar prioridade a esse projeto. Demorou mais ou menos um ano e meio a desenvolver o sistema e concluir o concurso. Inclusivamente foi anunciado noutro artigo no WebInsider sobre Web Design 2.0.
O resultado foi espantoso. A adesão foi grande e a briga para ganhar o concurso foi disputada. Agora o mais espantoso é que de repente os usuários quase pararam de reclamar no Twitter sobre o design depois que foi trocado. Melhor, tenho uma quantidade de anunciantes diretos que não tinha antes. Acho que a mudança de design ajudou, mas como sou desenvolvedor ainda tenho minhas dúvidas.
Agora quanto aos seus sites, acho que não precisa fazer um concurso para você ter um design que inspire credibilidade. O que talvez precise é ir mudando o design dos seus sites de vez em quando para não ficar com aquela imagem de algo antiquado. Por outro lado se não está tendo reclamações sobre o design do seu site, talvez nem precise de mexer. Basta que pergunte a meia dúzia de pessoas se acham o design do seu site legal, e talvez já saiba se tem porquê mexer ou não.
-
Cuide do seu conteúdo como um curador
Por fim acho que a dica mais importante é que cuide do seu conteúdo como um curador. Esta dica é particularmente direcionada a editores de site de conteúdo contribuído, como os meus, ou outros como o WebInsider.
Não precisa ser um escritor ou jornalista, mas é importante que escreva com a ortografia e gramática corretas. Caso contrário os usuários chegam no seu site e vêm algo mal escrito e já presumem que a qualidade de todo site é ruim. Na próxima vez que vêem o seu site nos resultados das buscas, nem clicam mais.
Conclusão
Com esta atualização o Google parece ter dado um passo gigante para de fato aumentar a qualidade dos seus resultados de busca, compensando assim os que produzem bom conteúdo e desencorajando os que usam tácticas maliciosas para ganhar visitas aos seus sites de forma ilícita.
Talvez seja cedo para avaliar, mas parece que as regras do jogo mudaram significativamente. Editores de sites e profissionais de SEO que até aqui se estavam valendo de tácticas de Black Hat, com certeza agora precisam repensar as suas abordagens.
É certo que novas tácticas maliciosas vão surgir, mas a minha impressão é que com esta atualização o Google está reduzindo os benefícios de quem tenta essas tácticas, em favor de uma maior compensação de quem cumpre as suas regras promovendo assim a construção de uma Web melhor para os usuários.
E você usuário, editor de site, ou profissional de SEO, o que acha? Será que vai ser assim que o Google vai conseguir promover uma Web melhor? O que você faria para melhorar os sites de forma a terem mais aceitação e consequentemente mais qualidade? [Webinsider]
…………………………
Conheça os serviços de conteúdo da Rock Content..
Acompanhe o Webinsider no Twitter.
Manuel Lemos
Manuel Lemos (mlemos@acm.org) é desenvolvedor e edita o PHPClasses.org e o JSClasses.org. Usuários do Twitter podem seguir a conta @manuellemos
40 respostas
se eu ficar atualizando a pagina para testes isso pode infringir as regras do Google adsense?
Depois que Google implementou o tal do panda vi muitos sites que estavam nas primeiras páginas do google cair drasticamente de posições. A cada dia o sistema de busca leva mais em consideração o conteúdo das páginas para colocar os melhores sites nos resultados do Gogole.
Sem dúvidas, meu site já perdeu muito com isso, agora procuro melhorar para ter mais visitas em meu site.
Gostaria de saber mais sobre o assunto.. vou me subescrever em seu feed !
Gostei bastante.
Muito bom
Parabéns pelo artigo. Completo e de fácil entendimento.
Um grande abraço!
Tiago, obrigado pela força.
Se você perdeu tráfego é porque concerteza algumas das suas páginas pioraram a classificação nos resultados de busca. Tente saber quais foram as buscas em que piorou mais para saber que outras páginas subiram para o lugar das suas e tente entender o que essas páginas têm de melhor que as suas não têm.
Artigo muito bom mesmo sobre o Panda… Parabéns pelo texto escrito, pois o mesmo foi bastante explicativo e me ajudou a entender um pouco mais sobre o Panda, apesar de já estar a par de quase tudo que foi citado aqui.
Mesmo tentando manter o conteúdo do meu site com qualidade, tive uma queda de 40 a 50% no tráfico diário de visitas, mesmo tendo bounce rate de 15% no Analytics, tendo um tempo de carregamento de página de 6,8 segundos e tendo um visual aparentemente moderno. O conteúdo, tenho feito o mesmo trabalho feito por você, o papel de curador dos textos por ele produzidos.
Infelizmente nem Jesus agradou a todo mundo, e saber como o Panda age ou melhor, como classifica os conteúdos dos nossos sites, não existe regra.
Mas pelo conteúdo postado aqui, parabéns, muito bom.
Grande abraço
Tiago Souza
E o Panda chegou ao Brasil oficialmente dia 12/agosto. Alguns sites já começaram a sofrer.
Excelente artigo,
Realmente é um assunto delicado e que deve ser visto atenciosamente por todos os Webmasters que quiserem permanecer normalmente nos resultados.
Abraços
David e Vivian, obrigado pela força.
Vivian, sobre a taxa de rejeição, não tem como o Google Analytics dar um valor mais próximo do real porque não sabe se entre depois de acessar uma página, o usuário ficou lendo por um tempo ou saiu logo.
Hotel Rio de Janeiro, o Panda ainda não foi aplicado a sites com conteúdo noutra língua que não o Inglês. Se perdeu muito tráfego, talvez tenha sido punido por outro motivo (como denúncia de concorrente), ou algum concorrente está se classificando melhor. Faça um pedido de reconsideração ao Google para ver se eles dizem que não foi punido.
Não sei se foi efeito do Panda, mas de alguma forma o algoritmo nos penalizou.
Procuramos escrever artigos informativos no blog http://www.hotel-rio-de-janeiro.net/blog
Essas páginas tinham bom posicionamento até semana passada.
Hoje, nenhuma das páginas recebe tráfego da Google.
Esses foi sem dúvida melhor post falando sobre esse assunto.Agora precisamos ficar atentos para saber quais mudanças haverão além das citadas no artigo.
Você comentou algo que me preocupa muito porque o analytics fala que nossos site tem tanta porcentagem alta de rejeição né eles deveriam mudar os critérios de avaliação.Espero que essas mudanças possa enfim beneficiar as pessoas que realmente agregam algo de valor com seus sites e blogs pois essas pessoas dão seu suor fazendo bons conteúdos e não é justo que seus sites e blogs estejam em posições desfavoráveis nos mecanismos de busca.Parabéns pelo artigo adorei irei recomendar aos amigos!!!
Manuel esse foi um dos melhores artigos sobre o assunto que li nos últimos tempos. Muito completo e até agora a melhor suposição em relação ao algoritimo do Panda, além disso as explicações sobre SEO e content farms são simples o suficiente para o entendimento de um leigo e ao mesmo tempo interessantes para o proficiente.
Parabéns.
Penso que estas medidas vão tornar as pesquisas muito mais interessantes, visto que nos últimos meses os resultados das mesmas não são os melhores.
Parabéns pelo artigo.
Parabéns pelas informações, foi de grande utilidade para todos sem sombra de dúvidas.
Paulo Henrique, pessoalmente acredito que Flash é uma tecnologia a abater. Se puder substituir, recomendo. Mas duvido que a atualização Panda afete sites só por usarem Flash.
No caso do AdWords se compreende que rejeitem Flash, precisamente devido a restrições do iPhone e iPad como falou, mas o AdWords não tem nada a ver com a classificação das páginas na busca.
Felipe, duvido que o Google use os dados do Google Analytics na atualização Panda. Seria um tipo de cruzamento de dados para os quais não me parece que os editores de dados autorizaram.
Para além disso nem todos sites usam o Analytics. Seria injusto beneficiar ou prejudicar sites que usam Analytics. Se fosse assim, sites que perderam tráfego iriam mandar tirar o Analytics para recuperar as perdas.
Eu acredito que o Google tem meios para avaliar melhor o bounce rate real. Se o usuário vai ao site, não gosta por algum motivo, e volta para a busca, a busca do Google fica sabendo. Muitos usuários levados para uma página e voltando para a busca pode dar o sinal que o Google precisa para determinar o rebaixamento da página para uma dada busca.
Olá Manuel, gostei da suposição de Bounce Rate sendo usada pelo Google, certamente, como você disse, se não for essa técnica, é similar.
A dica de fazer uma analise entre as visitas dos EUA e outros países antes e depois da atualização do Panda nos EUA é boa. Vou levantar esses dados no portal que supervisiono… vamos ver se é “BINGO”.
Quanto ao grande volume que essa técnica de analisar o bounce rate de cada palavra-chave pode ocasionar, talvez o Google possa estar usando em grande escala, os dados do próprio Google Analytics visto que está instalado na grande maioria dos sites.
Olá Manuel, gostei muito do seu artigo. Meu site existe desde 2005 e sempre disponibilizamos conteúdo exclusivo e de qualidade. Vi outros sites no ramo automotivo surgirem do nada com conteúdo raso, textos “leves”, mas leves demais, e ganharem mais destaques no Google por usarem truques de SEO.
Meu servidor também é dedicado e muito rápido em medição do PageSpeed e ferramentas do Google.
Acredito que as matérias serão beneficiadas com a atualização PANDA, mas uma dúvida que tenho é da tendência do Google em rejeitar ainda mais qualquer componente em Flash. Já notei no AdWords que diminui a qualidade da página por causa da rede de celulares (leia-se iPhone) porque no Android o componente que utilizo em Flash funciona muito bem. Estou pensando seriamente em tirar os componetes em Fash e deixar em HTML + Javascript mesmo…
Exemplo de matéria nossa:
http://www.motorclube.com.br/materias/conheca-a-nova-picape-ssangyoung-actyon-sports.aspx
Exemplo de uma galeria de fotos nossa em Flash:
http://www.motorclube.com.br/fotos/fotos-do-chevrolet-omega-fittipaldi-2011.aspx
Olá Manuel. Gostei muito do seu artigo, foi esclarecedor. Tenho estudado bastante sobre as buscas e acho que o que o Google vem fazendo é para melhorar mesmo. Vejo muitos sites que tendem como principal objetivo ganhar dinheiro. Claro que é uma prioridade também, mas o conteúdo em si deve sempre ser a prioridade. A ideia de melhorar o posicionamento de sites que criam o conteúdo é ótima e vai beneficiar quem produz. Mais uma vez parabéns pelo artigo!
Cassiano, obrigado pela força. No entanto, ocorreram alterações.
Eu só tinha comparado estatísticas de uma semana antes e depois do dias 24 de Fevereiro. Na semana seguinte parece que quase voltou ao normal. Isso indica que o Google ainda deve estar fazendo ajustes aos critérios ou então fazendo uma avaliação frequente das taxas de rejeição.
Esta atualização ainda vai dar que falar. Falando nisso vamos gravar um podcast sobre isso esta semana, possivelmente com a ajuda do Flávio Raimundo para dar uma ajuda a compreender o significado das mudanças. Penso que até à semana que vem publicamos o podcast aqui:
http://webinsider.uol.com.br/category/podcast/
Ola Manuel,
eu tinha separado seu artigo aqui, mas não tive tempo de ler antes, e acabei terminando a leitura dele somente agora.
Queria dizer parabéns pela abordagem que você fez do tema, inclusive exemplos práticos do que você presenciou.
Esse é um dos posts mais completos sobre o assunto que eu li.
Grande Abraço!
@cassy82
Olá Pessoa, Ótimo Conteúdo Manuel parabéns!
Quanto a sua teoria acho plausível, pois se não me engano quando o Bing foi lançado a teoria de posicionamento na SERP era bem parecida com essa, o foco era em conteúdo de qualidade, lembro também que o Google separou uma equipe para estudar o Bing.
Bom na minha concepção as alterações feitas pelo Google não influenciam diretamente nos projetos que seguem as diretrizes e critérios definidos pelo próprio Google.
Vamos acompanhar as atualizações, e ver o que dá
Abraços
André, a teoria apresentada no artigo é que o Google deve estar avaliando quantos usuários vão nas páginas de resultados e que voltam logo a seguir.
O Google já informou que os usuários que bloqueiam sites explicitamente não influênciam a classificação das páginas desses sites nos resultados do Google. Senão seria fácil sites concorrentes ficarem se prejudicado contratantdo pessoas para bloquear os sites dos outros.
“Criação de Site” (é melhor usar o seu nome), a atualização Panda está restrita para quem faz buscas a partir dos Estados Unidos, pelo que por enquanto ainda não afeta quem faz buscas no Brasil.
No Brasil é prematuro fazer análises usando o mês de Março haja vista um componente complicador: CARNAVAL. Precisamos esperar que as visitações se estabilizem, a teoria Panda apresentada me parece correta pois certamente é necessário que o robot tenha um critério matemático com o que possa trabalhar, certeamente la txa de rejeição seria um bom valor para conceituação de conteúdo relevante ou não.
Ótimo artigo, mas ainda fico com um duvida!
Como o google vai conseguir identificar se uma pagina é ou não de baixa qualidade? Baseado na taxa de rejeição e no plugin?
Essa pagina pode ser considerada de baixa qualidade http://www.arrumarcomputador.com.br/blog/qual-o-melhor-programa-para-baixar-musicas/
Entrega o que o usuário procura, mas vocês a considerariam de qualidade?
Acredito que mesmo com a atualização do google, fica complicado definir o que é e o que não é pagina de qualidade.
Muito boa a explicação, acredito que seja boa para os visitantes que realizam buscas no google e encontrem conteúdo de qualidade, atualmente no Brasil tem pessoas que estão dominando determinado segmento com conteúdo de péssima qualidade.
Não vejo a hora desda nova mudança chegar ao Brasil.
Renato Miranda e Marcos Alonso, obrigado pela força.
Lembrando que a teoria da taxa de rejeição (bounce rate) é apenas isso aí, uma teoria plausível mas que pode não ser exatamente o verdadeiro motivo que está levando umas páginas nos resultados terem mais ou menos visitantes.
Sobre taxa de cliques, duvido que isso tenha a ver com a atualização Panda.
A taxa de cliques só tem a ver com o posicionamento nos resultados (quanto mais alto melhor) e também se o título e o excerto (snippet) dizem atraiem o usuário para a página e aí clicam.
No entanto, é natural que a taxa de clique se altere se depois desta atualização o Google alterou o posicionamento das suas páginas nos resultados.
Eu desconfio que a atualização Panda está levando a uma alteração continua do posicionamento, porque rebaixar uma página não signfica que as páginas elevadas tenham melhor qualidade.
Pelo que se espera que a taxa de cliques de todo mundo fique oscilando, o que até pode levar a uma situação mais justa de distribuição de visitas por várias páginas com qualidade sobre as mesmas palavras de busca.
Fala Manoel, bem legal seu post e muito bem argumentada a questão do bounce rate. Eu acredito também que isso tenha a ver com a taxa de click (click trough) da página no próprio resultado de busca. Num popst no meu blog, expus que uma das hipóteses é de que esta taxa influenciou numa “troca” de página de um mesmo dominio no posicionamento.
mas é quase a mesma coisa.. é o Google “descobrindo” páginas que não são interessantes para o usuário e substituílas fazendo testes.
http://www.curacautin.com.br/blog/2011/01/07/taxa-de-click-through-e-o-posicionamento-organico/
Mas, novamente, muito bom artigo
Marcos
é bom que o google aumente cada vez mais a qualidade dos resultados.
Isso ajuda no final não só a google com as receitas deles e sim todos os usuários que procuram por qualquer coisa.
Um dos melhores artigos que li sobre a nova mudança no Google.
Parabens!
Renato.
Domicio Neto, obrigado pela força e o complemento de informação.
No entanto, o Google já esclareceu que as páginas bloqueados pelos usuários através dessa extensão não vão influenciar a classificação dessas páginas buscas. Caso contrário, seria fácil a alguém com intenções maliciosas prejudicar sites concorrentes de boa qualidade.
No entanto o Google também esclareceu que está usando as estatísticas dos sites bloqueados pelos usuários para avaliar como a atualização Panda está tendo sucesso.
De notar também que a atualização Panda não visa bloquear sites na totalidade, apenas reduzir a classificação das páginas de baixa qualidade.
Leonardo Cezar, isso não é bem uma rejeição uma vez que o usuário usou algo do site. Seria uma rejeição se o usuário voltasse à página de busca para buscar sobre o mesmo em pouco tempo. Talvez o Google Analytics acabe contando isso como rejeição, mas como expliquei, os valores do Google Analytics estão distorcidos e por isso deve dar um desconto.
Edgar Santos, que eu saiba a atualização Panda ainda não está afetando sites que recebem visitas do Google no Brasil. A menos que você receba visitas do Google dos Estados Unidos, concerteza o seu aumento de visitas se deveu a alguma outra coisa.
Fala Manuel,
Parabéns pelo artigo, muito bom mesmo!
Acho que duas coisas extremamente valiosas para o seu post, o primeiro é o plugin que o Matt Cutts lançou para o Google Chrome, onde você pode bloquear um site que lhe traz resultados ruins, e o Matt Cutts tem o acesso direto a esses sites bloqueados.
https://chrome.google.com/webstore/detail/nolijncfnkgaikbjbdaogikpmpbdcdef
Outro ponto, foi twittado hoje pelo @PedroDias (Search Quality Analyst do Google) dizendo que essa opção de bloquear o site será incluida para todos os usuários sem precisar do plugin.
http://googleblog.blogspot.com/2011/03/hide-sites-to-find-more-of-what-you.html
Claro que se seu site, começar a ser bloqueado pelas pessoas, COM CERTEZA ele sofrerá queda no rankeamento.
Eu mesmo já uso, e te digo como usuário mesmo e não como profissional, que essa opção tem limpado MUITO a minha SERP e melhorado a qualidade de alguns resultados mais específicos.
Abraços,
Domicio Neto
Maravilhoso o artigo, muito esclarecedor, essa semana tive aumento significativo no posicionamento de algumas páginas, acredito que as novas mudanças estão surtindo efeito no Brasil.
Apesar de gerar muitos backlinks Dofolow tática que acredito trazer resultados até então, notei que algo a mais ajudou a melhorar o posicionamento dos meus sites que estão construidos com conteudo relevante e focado numa visitação minima de 2 páginas melhorando o indice de rejeição, vou fazer um monitoramento nos próximos dias a respeito pois tb acredito que o caminho é a unificação de regras, ou seja por que não aplicar o que já existe nos links patrocinados para a orgânica.
Com o google images, a taxa de rejeição pode ser ainda maior, quando vc acessa um site para visualizar uma imagem que vc pesquisou através do google images. Não é difícil encontrar a situação onde o indivíduo simplesmente entra, visualiza uma camada com a imagem em tamanho maior e depois sai.