Teoria dos sub-algoritmos simultâneos em SEO

teosubalgorirmossimuseo_topo

O nome deste post pode parecer complicado, mas o conceito que abordarei será razoavelmente simples.

Quero mostrar, através de um caso real, como o algoritmo Google “testa” uma série de possibilidades de seu algoritmo em busca do que traz os melhores resultados; de certa maneira, é como se o algoritmo do Google tivesse uma série de sub-algoritmos que são randomizados em busca do qual trará resultados melhores, em um processo incessante de testes e medição de impactos.

Trata-se de uma teoria porque eu não disponho de provas para defendê-lo, mas sim de indícios. Falando dessa maneira, sinto-me um pouco como Charles Darwin, mas posso garantir que se trata de algo de certa maneira menos abstrato do que a forma da vida na terra. Enfim, vamos prosseguir.

Estamos em um momento especialmente propício para falar dessa teoria, tema que aliás eu já abordei na Filosofia do SEO, embora sem entrar muito em detalhes. Por conta do lançamento do Google Penguin, que já foi sumariamente abordado neste artigo, e que nos próximos dias ou semanas procurarei explicar sob aspectos específicos e de maneira mais profunda, é um ótimo momento para abordar um tema complexo e sempre abstrato (por ninguém fora do Google dispor de dados), que são as mudanças do algoritmo.

Momento de aprender

Trata-se de um bom momento para aprender sobre SEO porque os resultados durante estes dias estão instáveis. Dessa maneira, podemos observar em um curto espaço de tempo o peso a cada critério que o Google está dando mais ênfase.

Ontem as SERP do Google estavam especialmente instáveis por conta do update do Google Penguin, o qual analisamos num post anterior. Ao contrário do usual, a dança de palavras-chave (mudança de posições) ocorreu durante todo o dia; por alguns momentos parecia caótico, pois atualizando uma SERP que costumava passar nos tempos normais inalterada todo o dia, tudo estava mudando a cada instante. A cada hora,  um novo site assumia os primeiros lugares e alguns novos domínios apareciam na SERP. Depois, domínios sumiam, outros apareciam e as posições ficavam totalmente alteradas.

Refiro-me à SERP do termo SEO, que é uma das mais concorridas do mercado dada a qualificação dos players. Aliás, ao longo do dia um dos maiores sites no Brasil sobre o assunto (da MestreSEO) chegou a simplesmente sumir dos resultados. Resta saber se era por uma falha do algoritmo ou alguma punição. Ao longo deste artigo, vocês podem entender porque seria uma falha, que decerto será corrigida.

À procura do melhor algoritmo

Segundo o meu entendimento, o que permite ao Google tanta mudança nos resultados é que diariamente (nos dias como ontem a cada hora, talvez) um novo algoritmo dava lugar ao anterior, a fim de calibrar o algoritmo que será utilizado com menores alterações e impacto ao longo dos próximos meses, até que chegue um novo e impactante update no Google. Esses são dos sub-algoritmos simultâneos, que funcionam praticamente ao mesmo tempo.

Engenheiros do GooglePrecisamos entender o que acontece do lado dos engenheiros de software: eles têm suposições que, segundo julgam, melhorariam o algoritmo do Google; essas suposições obviamente não são de fato verdades e, por isso, precisam ser testadas. Decerto, são feitos uma série de testes internos e quando há um calibre correto entre critérios on e off page, e dentro desse on e desse off page uma infinidade de critérios menores (title, h1, conteúdo, links internos, imagem, vídeo, etc.), o Google tem um protótipo maduro que será “testado” em buscas as quais os engenheiros conhecem melhor, para assim poder avaliar como resultados mais relevantes apareciam no topo de uma maneira algorítmica, não manual.

É importante ter em mente que o Google não pode se dar ao luxo de fazer nenhuma alteração manual no algoritmo, pois isso seria potencialmente muito custoso.

Testando esses algoritmos

Tendo passado por um teste de viabilidade funcional, em que decerto se simulam milhares ou milhões de buscas, há algum processo interno para considerar aquele novo algoritmo maduro o suficiente para ir para a ação.

O que estamos analisando até o momento, na verdade, não são mudanças nem atualizações importantes, como o Penguin e Panda, mas otimizações rotineiras do algoritmo nas quais se procuram maneiras de aperfeiçoar o que já existe e, em segundo plano, implementar melhorias. Essas coisas acontecem diariamente no Google.

Todavia, nada impede que nessas versões do algoritmo já se tenham implementado os recursos realmente novos do buscador. Também é possível que se comparem versões com e sem os filtros só disponíveis no Penguin, por exemplo, e assim medir o impacto.

Usabilidade da busca

O melhor algoritmo nem sempre é o melhor algoritmo.

O mais importante, para o Google, não é o que seus engenheiros consideram melhor ou pior, até porque eles não passam de engenheiros e não têm a sensibilidade subjetiva do público consumidor de sistemas de busca. Portanto, para que o Google funcione bem ele não deve contar com as suas próprias suposições mas com o feedback do mercado.

Façamos um parênteses. Eu conversava com um cliente sobre a razão da queda nas conversões na mudança de um site antigo para um novo, mais moderno e mais bonito. Isso na verdade é algo pelo que passo quase sempre que um cliente está mudando o seu site, afim de manter o que eu julgo ativos de conversão do site anterior. Pois acontece não raro de o site novo não só converter menos, bem como o público não gostar dele; sim, às vezes o consumidor prefere o site “feio”, acha-o mais bonito e fácil de usar, mesmo porque estava acostumado a ele.

Com o Google não é diferente: os engenheiros procuram implementar as melhores tecnologias e encontrar os melhores critérios, mas só os usuários mesmo é que irão determinar quais os resultados mais relevantes.

Mudar, não mudar

A mudança de algoritmos deve ser vista como um dilema dentro do Google: o buscador já é bem aceito, todavia precisa evoluir para que um dia não venha a ser ultrapassado por um concorrente com melhor tecnologia, nem que profissionais de SEO entendam o funcionamento dele e passem a fazer sites para robôs (o que mais cedo ou mais tarde aconteceria).

Muitas dessas mudanças, por outro lado, são feitas única e exclusivamente para manter seu império ileso.

Sob certa ótica, também é preciso chamar a atenção e fazer um auê para dizer que os resultados estão melhores ainda; também nunca é demais alarmar os spammers que o cerco cada vez mais se fecha para eles.

Como esses algoritmos tornam-se um

Na verdade, eles nunca se tornarão um único algoritmo.

A minha teoria principal sobre SEO é justamente que o Google não tem uma única maneira de avaliar os sites, e usa diversas formas a fim de calibrar melhor seus critérios. Por isso, está a cada dia testando uma nova maneira de trazer melhores resultados. Essas formas, que são testadas simultaneamente, são esses múltiplos e simultâneos sub-algoritmos.

O Google dispõe de uma infinidade de informações através de ferramentas suas como: o próprio buscador (é possível identificar a taxa de cliques no botão “voltar” e o impacto de mudanças na SERP), o Google Analytics, sua barra de ferramentas, widgets do +1 e muito mais. Não é à toa que com o Google Penguin, taxa de rejeição do web site, dentre outras métricas competitivas, têm se tornado também um critério de posicionamento dos sites.

Por isso, ele se pode dar ao luxo de testar melhorias de recursos; afinal tem sempre como avaliar os lucros e os prejuízos de suas mudanças.

Fonte: Conversion

Postagens Relacionadas