leia nossos conteúdos e tenha muito mais

conhecimento

conhecimento
14 de julho de 2022
Categorias SEO, Sites

SEO Técnico: Arquitetura de sites profissional para atrair ainda mais tráfego orgânico

Neste Post você verá:

  • Diretrizes Gerais 
  • Entenda em definitivo a composição estrutural de um website na visão orgânica (SEO)
  • Identificando de forma visual a arquitetura atual do meu website
  • O que “Crawl Budget” significa para o Googlebot?
  • Saiba como mapear de forma facilitada a arquitetura do seu site 
  • Como utilizamos nossa arquitetura de websites na Lands para otimizarmos da Indexação
  • Melhoria em Links de Navegação do site 
  • A parte inferior do seu site também deve ser levada a sério
  • Links internos a partir da página principal do site para páginas importantes
  • Cuidado com o formato de Paginação do seu website
  • Um item importantíssimo para o seu site é o sitemap.xml para Rastreamento
  • Itens importantes sobre SEO para Arquitetura de Sites
  • SEO Internacional: Como estruturar seu site internacional?
  • SEO on-page para obter melhores resultados orgânicos no Google
  • Fique atento à velocidade e desempenho do website
  • Log File Analyzer (Análise do arquivo de LOG)
  • Rastreabilidade
  • Elimine problemas técnicos de SEO
  • Quem deve considerar o uso do SEO Técnico e afins?

Em minha carreira profissional sempre busquei entender como os algoritmos funcionam!:D
Após 13 Anos trabalhando com desenvolvimento de websites e marketing digital, posso afirmar que devemos estar atentos com relação às diretrizes para webmaster que estes buscadores apresentam, é isso mesmo, não é nenhum segredo que deva ser revelado, ou uma “sacada” que só eu descobri do nada. O fato é que toda empresa que oferece um serviço de busca online possui suas diretrizes para webmasters bem definidas e públicas aos olhos de todos que queiram entender como tudo funciona, independente de qual for. Sejam eles, Google, Bing, Yahoo, Baidu, Qwant, etc… 

Aqui na Lands construímos websites desde 2008 e uma relação que nunca mudou é de que devemos sempre pensar em SEO – Search Engine Optimisation –  antes, durante e principalmente depois do desenvolvimento de um website, pensar em deixar o website sempre acessível aos robôs de busca, e deixando o caminho livre para que os algoritmos dos buscadores encontrem a página certa no momento certo e de acordo com as palavras-chave inseridas pelos usuários é ouro! Afinal, eles não querem se deparar com uma página do seu website que esteja fora de contexto, não é mesmo? O usuário está sempre buscando o melhor conteúdo que responde suas dúvidas de forma rápida e principalmente, que resolve o problema dele.  

Mas afinal o que é SEO Técnico? Basicamente é um conjunto de aperfeiçoamentos na estrutura interna do seu website. O principal objetivo é que as páginas sejam mais rápidas, entendíveis, rastreáveis e indexáveis – importante para que o restante da sua estratégia de SEO seja funcional.

O SEO técnico é a base do SEO on page, que são definitivamente as otimizações feitas dentro de cada página com a inserção de conteúdos de extrema relevância para os usuários e obviamente para os robôs de Search Engine.

O SEO on page é muito mais complexo e abrange estratégias de conteúdo, não fazendo parte do SEO técnico. Há também o SEO off page, que nada mais é que o relacionamento do seu site com outros sites, tendo como principal objetivo ganhar autoridade no seu nicho e construir uma rede forte de links relevantes.

Trocando em miúdos, o SEO técnico é a parte que está por trás das páginas, nos códigos e na arquitetura do seu website.

Somente desta forma é que você conseguirá fazer com que o Googlebot ou outros buscadores encontrem seus links e os indexe no ranking de páginas relevantes.
Sem sombra de dúvidas o SEO técnico pode influenciar o ranqueamento, e o objetivo é ranquear e indexar seu website. Posteriormente, o trabalho da construção de autoridade através da criação de conteúdo será responsável pelo aumento na classificação dentro dos buscadores da internet.

Diretrizes Gerais

Sempre verifique se todas as páginas do seu website podem ser acessadas através de outras páginas externas, imagens só são rastreáveis se contiverem o atributo alt=”informação sobre a imagem” e os links rastreáveis pela TAG <a> que contém o atributo href=”https://www.seusite.com.br/pagina-a-ser-rastreada. O fornecimento de um arquivo de sitemap com links para as páginas mais importantes do seu website é primordial.Mas uma dica muito importante é sempre dar uma checada junto ao google e solicitar para que o Google rastreie suas páginas, isso é muito importante para um webmaster ter certeza que as páginas do seu website disponibilizadas, estão realmente sendo encontradas pelos buscadores da www – World Wide Web.

TIP: Confira sempre se todas as páginas estão sendo acessadas através de outras páginas que também devem ser localizáveis pelo buscador.

Obviamente que estas métricas são fornecidas pelo Google e/ou buscadores da internet, mas vale sempre apenas aprendermos com os buscadores, pois normalmente são eles que refletem o interesse do usuário.

Não somente agências mas empresas em geral que de alguma forma tem uma presença “razoável” na internet devem estudar e olhar para a arquitetura dos websites para garantir que todas as páginas sejam rastreáveis pelos buscadores. Trazendo um pouco de UX – User Experience para o contexto, pelo nossa experiência sugerimos que o internauta ao acessar o seu website encontre o que precise em no máximo 3 cliques, caso contrário a experiência será baixa e seu website se tornará irrelevante para o internauta e também para o Google, pois acredite ele está monitorando.  

Mas vamos lá, de que forma devemos transformar esta técnica em ações concretas caso você esteja neste momento em um projeto SEO?

Entenda em definitivo a composição estrutural de um website na visão orgânica (SEO)

Devido ao advento da internet e da arquitetura www – World Wide Web, hoje com informações de embasamento técnico sobre o assunto sendo amplamente disseminadas nesta rede, e principalmente com o avança da tecnologia nesta área podemos visualizar dados sobre nosso website de forma facilitada, através,  apenas um clique de distância.Primeiramente, precisamos visualizar como é a estrutura básica de um website. As páginas na internet, se conectam através de links como já dito anteriormente, são as TAGs <a> que contém o atributo href que levam o internauta a navegar entre as páginas e possibilita o acesso às informações que busca através de palavras-chave. A partir do momento que disponibilizamos um website através de um domínio www.seudominio.com.br teóricamente deveria conter uma página inicial que contenha a GRANDE MAIORIA dos links para as páginas possíveis do seu website.

TIP: Quando você tem páginas muito “profundas” no seu website a tendência é que o internauta tenha dificuldades de encontrar o que precisa de forma facilitada, e convenhamos, hoje em dia ninguém tem mais tempo a perder. E olha que interessante no caso do Google o seu “Robô” também não tem tempo a perder, seu algoritmo tem acoplado uma ideia de tempo que é mais conhecido por crawl budget

O que “Crawl Budget” significa para o Googlebot?

Não devemos traduzir ao pé da letra, mas entenda que “Crawl Budget” é a cota de rastreamento gasta pelo google para identificar as páginas do seu website. Caso o seu website seja pequeno e sucinto não é algo que você deva se preocupar muito.
Normalmente quando você publica uma página nova no mesmo dia o google já consegue rastreá-la, o caso muda quando o website possui milhares de páginas que precisam ser indexadas pelo Googlebot. 

Por isso você deve priorizar o que e quando o google deve rastrear suas páginas, até para que este processo de rastreio no seu website não comprometa o servidor de hospedagem, isso também pode ser alocado facilmente, ou seja, é importante se preocupar com cotas de rastreio quando você possui um website com um volume de páginas muito grande. Por isso, seguir uma arquitetura organizada e que tenha sentido para o internauta, também fará sentido para o Googlebot ou “Robô do Google Search”.

Esse limite na taxa ou cota de rastreamento foi implementado no Googlebot no sentido de rastrear o seu website e não afetar a experiência dos internautas que acessam o seu website. Além do tempo de espera entre as buscas, essas taxas poderão aumentar ou diminuir de acordo com algumas variáveis ou fatores:

  • Integridade do Rastreamento: Se o seu website tiver um tempo de resposta muito baixo ou responder com erros no servidor, o limite diminuirá consideravelmente e o Googlebot executará menos rastreamentos. Caso contrário, se o seu website é TOP tanto na arquitetura quando no desempenho de link, capacidade de processamento de disco e processamento o googlebot entende que pode acessar mais vezes o seu website para rastrear, pois, não afetará o desempenho do seu servidor e nem a experiência dos seus internautas.
         
  • Limite definido no Search Console: Você poderá reduzir o rastreamento que o Google faz através do “Robô” Googlebot no seu website, no entanto segundo documentação do próprio Google, isso não aumenta o rastreamento automaticamente.

Existem outros dois fatores muito importantes dentro da demanda de rastreamento, independente se a taxa de rastreamento não for atingida, o Googlebot não será acionado se o seu website não possuir uma demanda de indexação que exija o acionamento do “Robô”. São eles:

  • Popularidade: Se seu Website possui páginas que são muito acessadas, podem ser páginas de blogposts, artigos ou páginas de produtos, isso com certeza aumentará consideravelmente a frequência com que o Googlebot irá rastreá-las em um determinado período de tempo. 
  • Inatividade: Como o Google Search tem um índice de páginas, o “Robô” procura impedir que as URLs fiquem desatualizadas periodicamente.

Cuidado: Para não cair nos fatores que afetam a cota de rastreamento!

As URls de baixo valor se enquadram em algumas categorias pré-definidas pelo Googlebot, são elas:

  • Navegação facetada e identificadores de sessão
  • Conteúdo duplicado no site
  • Páginas de erro soft
  • Páginas invadidas
  • Espaços infinitos e proxies
  • Conteúdo de baixa qualidade e com spam

Deixando isso tudo acontecer com seu website você acaba gerando um atraso significativo na descoberta de conteúdos relevantes para o Googlebot inserir no índice de indexação.

Saiba como mapear de forma facilitada a arquitetura do seu site

Uma ferramenta gratuita que utilizamos aqui na agência é o screaming frog, uma das funcionalidades é avaliar os links internos e a estrutura das URLs utilizando diagramas de rastreamento interativo de diretórios e visualização do seu website em gráficos de árvores. É bem simples utilizar a ferramenta, basta efetuar o download, instalar a ferramenta e ao executar inserir a URL da página raiz que deseja rastrear, ela faz exatamente a mesma coisa que o Googlebot faz quando rastreia o seu website. Abaixo você pode verificar o rastreamento sendo executado em nosso próprio website da agência:

Na imagem acima podemos observar a estrutura do site atual da Lands e a estrutura abaixo em pastas. Utilizamos o SemRush para análise.

Como utilizamos nossa arquitetura de websites na Lands para otimizarmos a Indexação

Criar uma arquitetura de informação lógica e estruturada ajuda e muito na indexação do seu website. Tenha sempre em mente que a profundidade, ou seja, a quantidade de cliques necessários para encontrar a página com o conteúdo relevante não deve ter mais que 3 níveis de profundidade. É basicamente como você organiza os conteúdos do website e como define a relação entre eles, hierarquização e linkagem entre os conteúdos. 
Organizando desta forma, em que todas as páginas estão relacionadas entre si, facilita a vida do Googlebot para que encontre o máximo de páginas possíveis do seu website em uma única varredura. Desta forma o Googlebot irá identificar também que você oferece uma boa navegação, proporciona uma maior facilidade para os usuários encontrarem o que desejam, e agindo assim você também ganha pontos no ranqueamento.

Melhoria em Links de Navegação do site

Priorize por criar mega menus no topo do seu website ou no rodapé criar o máximo de links para as páginas importantes do website possíveis. Normalmente os menus dos websites são carregados em todas as páginas, portanto está sempre presente no layout das páginas como um bloco fixo, ou seja, será carregado sempre, independente do link que for clicado pelo usuário na página anterior.
Porém, se o seu site é gigante ou se as suas páginas estão isoladas, pode ser que o Googlebot faça uma varredura rápida e não rastreie alguns conteúdos que considere de menor importância.
Isso pode acontecer só numa próxima varredura ― e, assim, o rastreamento demora mais.
Portanto, uma forma de indexar mais rápido uma nova URL é criar links para ela em páginas importantes do seu site, como o menu inicial do site ou um post central do blog, que o Google prioriza rastrear.
Assim, quando você insere links nessas páginas, aumentam as chances de o robô passar pelas páginas linkadas. Além disso, ele identifica mais facilmente que há conteúdo novo no site e que possivelmente ele é relevante, já que é apresentado em uma página importante.

A parte inferior do seu site também deve ser levada a sério

Então, a parte inferior do seu website chama-se rodapé! Nesta parte do seu website é muito importante colocar o máximo possível de links, obviamente que sejam relevantes para estarem naquele local, tente organizar em grupos com a função de organizar os links facilitando a busca por informações por parte do usuário e do googlebot, existem “experts” que mencionam sobre os buscadores não darem ênfase nos links de rodapé, será? Na nossa experiência isso conta e muito, porque o google quer enviar os usuários para um site, rápido, mobile-friendly, com alta disponibilidade, compatível com navegadores e seguro.Na grande maioria dos projetos web aqui na Lands utilizamos este artifício de estruturarmos o máximo de links do site, como se fosse um sitemap, para que os buscadores possam indexar o máximo de páginas possíveis, como podemos ver na imagem abaixo de um projeto que executamos para um cliente:

Links internos a partir da página principal do site para páginas importantes

Quando projetamos um novo website para um cliente, sempre nos preocupamos com as outras páginas tão importantes quanto a página inicial do website! Entendemos que a página inicial do site é como se fosse a capa de um jornal impresso, onde deve conter os “atalhos” para as manchetes ou páginas relevantes do seu website, então a criação de seções na sua página inicial como por exemplo “ultimos blog posts pra você” são especialmente necessárias para que o seu website seja relevante e os buscadores encontrem os links e conteúdo relevante para o usuário. A escolha de quais seções do seu website serão destacadas na página inicial fazem toda a diferença para um desempenho superior dentre os diversos buscadores da internet.

No nosso site através de um único clique o internauta consegue acessar centenas de materiais ricos para ajudar no seu dia-a-dia dentro da área de nossa especialidade que é o marketing digital.

Cuidado com o formato de Paginação do seu website

Um item muito importante na arquitetura de um website é a questão do formato de paginação do seu website. É normal quando um website tem muito conteúdo a página fique um pouco lenta para carregar, pois além de ter muito conteúdo fica realmente confuso para o usuário ver tanta informações em uma mesma página,  é aí que entra a arquitetura de paginação destes diversos conteúdos. 

Desde que começamos a construir website na Lands o melhor formato é o agrupamento das páginas em um sequência numérica que chamamos de paginação:

Um item importantíssimo para o seu site é o sitemap.xml para Rastreamento

O seu site tem que ser o mais rastreável possível para os buscadores da internet! Pra diminuir o tempo de indexação das páginas novas, é uma ótima forma de conseguir resultados rapidamente. Você pode criar um sitemap.xml, que nada mais é do que um arquivo armazenado no seu diretório principal do site, normalmente public_html que contém as informações dos links das páginas que você quer que os robôs “crawlers” que rastreiam as páginas da internet em busca de conteúdo relevante para indexação e servir os usuários que buscam por conteúdo através dos buscadores. Este arquivo bem atualizado e estruturado facilita enormemente os robôs a conhecer todas as páginas do seu site com um caminho a ser percorrido.

Com o arquivo sitemap.xml pronto, você pode entrar na ferramenta do google chamada Google Search Console, e enviar o arquivo ou informar o link de URL ele é similar ao exemplo abaixo:

Caso o seu site não tenha um mecanismo para gerar o arquivo sitemap.xml automaticamente pode utilizar gratuitamente o site: https://www.xml-sitemaps.com/ para até 500 páginas.

Outro item essencial para o rastreamento do seu site é ter um site seguro. Um dos critérios do Google é priorizar sites que contenham certificado HTTPS, que garante segurança, autenticidade e confiança para quem está fazendo buscas online ou transações de dados sensíveis através de um e-commerce, por exemplo.

Itens importantes sobre SEO para Arquitetura de Sites

  • Todas as páginas devem estar disponíveis a 1 (um) clique de distância;
  • Não utilize páginas com mais que 3 cliques de distância da Página principal;
  • Sempre utilize ferramentas que lhe ajudem a ter uma análise visual do seu site;
  • A todo momento monitore e busque por problemas ou inconsistências em seu projeto;
  • Configure as ferramentas de SEO para lhe ajudar a mostrar correções estruturais ou de conteúdo do seu site;
  • Aguarde até que o Google revisite suas páginas ou utilize a ferramenta Google Search Console para “acelerar” o processo.

SEO Internacional: Como estruturar seu site internacional?

Existem 5 maneiras possíveis de estruturar seu site internacional:

  • Domínios de nível superior codificados por país;
  • Subdomínios de um único domínio de nível superior global;
  • Subdiretórios de um único domínio de nível superior global;
  • Parâmetros de URL;
  • Usando cookies para coletar informações sobre o idioma.

A forma mais correta é utilizar a 1ª opção utilizando domínios de nível superior codificados utilizando a TLD do inglês top-level domain por país utilizando por exemplo seusite.com.fr, seusite.com.br, seusite.com.es, seusite.com.it e assim por diante. Mas, sabemos que para manter todos esses domínios dessa forma tem várias vantagens, eles tem targeting internacional, o que significa que estes domínios .fr na França e .es na Espanha recebem uma vantagem para ranqueamento.  

TIP: Se você usa cookies para obter informações sobre o idioma, é essencial que você também use um dos outros métodos. Os buscadores podem indexar uma URL apenas uma vez no índice e, se você tiver a mesma URL para cada idioma, isso significa que apenas uma versão em idioma único desta página será exibida nos resultados dos buscadores.Devido ao custo de se manter múltiplos domínios nós utilizamos duas formas, se você quer que seu site tenha páginas realmente distintas e com texto na língua do país pretendido a utilização de subdomínios por exemplo pt.seudominio.com ou fr.seudominio.com através de um domínio superor seudominio.com funciona muito bem, o único porém é a manutenção que é muito maior. Na grande maioria de nossos projetos na Lands utilizamos o método por Parâmetros de URL em nosso CORE (É nossa arquitetura proprietária para construção e gerenciamento de sites) a primeira section,  ou seja, a primeira seção da URL para identificar o idioma, por exemplo, www.seusite.com/pt-br/blog/como-construir-websites-que-vendem ou em inglês www.seusite.com/en/blog/how-build-websites-that-sell essa tradução é automática em nossa plataforma que inclusive muda a URL para que o Googlebot entenda que deve indexar a URL para listar em buscas efetuadas na língua inglesa.

SEO on-page para obter melhores resultados orgânicos no Google

Não é o foco do post, mas vale a abordagem para conectarmos com nosso próximo post. Basicamente existem alguns itens primordiais que devem ser cuidadosamente verificados em cada página do seu website para otimizar o conteúdo através da escolha de palavras-chave adequadas para o título e subtítulos, otimização também de imagens com o atributo ALT w legenda, obviamente ajustes na arquitetura, meta-tags e escolher uma URL adequada para o seu objetivo.
Título da Página: O “Title” é uma propriedade do código HTML que é reconhecida pela aba do navegador ou página de resultados dos buscadores.

Acima podemos observar que o texto que está dentro da propriedade “title” aparece na descrição da aba dos navegadores.

Quando você segura a tecla Ctrl + U do seu teclado, uma nova aba será aberta com o código em HTML processado no seu navegador, pra encontrar mais facilmente a propriedade, digite Ctrl + F, aparecerá uma caixa de busca, basta digital title que você encontrará a propriedade sendo aberta e fechada com o conteúdo/texto carregado.

Neste último print de tela podemos verificar que a informação contida entre as tags <title> e </title> é mostrada para o usuário identificar qual sentença condiz melhor com o assunto, ou melhor qual TÍTULO atrai o olhar do usuário para o clique. 

Meta Description: A Meta Description é um complemento do título, mas não tem um peso alto como fator chave de ranqueamento. Ou seja, as palavras-chave, caso inseridas na Meta Description, não serão relevantes no posicionamento do seu website para os buscadores. O texto inserido na Meta Description deve revelar de forma objetiva e sucinta o conteúdo base que o internauta encontrará ao clicar, provavelmente com um texto bom, isso aumentará consideravelmente a taxa de cliques no seu link para a sua página, por isso essa é uma otimização crucial de On-page. 

URL (endereço da página): A chamada URL amigável, é muito relevante para o Googlebot ou outros buscadores do mercado, o robô faz uma varredura de palavras-chave na própria URL da página. Então fique ligado que a URL deve conter as palavras-chave desejadas.

Exemplos: 

https://www.seusite.com.br/este-e-um-nome-de-titulo-da-pagina

Não crie URLs com códigos humanamente indecifráveis como https://www.seusite.com.br/gf98725389u32hnjfnf ou com parâmetros que são decifráveis somente pelo seu Blog ou página de destino como https://www.seusite.com.br/?p=34209

Sempre mantenha as URLs curtas na medida do possível e não utilize datas na URL, por exemplo: https://www.seusite.com.br/2021-10-08/titulo-do-seu-post, pois, caso venha a atualizar o seu conteúdo a data setá automaticamente atualizada e identificada como uma nova URL para indexação pelo Googlebot ou outros buscadores da internet.

Imagens: SEO On-page para imagens fique atento para basicamente 3 itens:

  • O nome do arquivo;
  • O atributo ALT (texto alternativo);
  • O tamanho do arquivo (peso);
  • O contexto

O nome do arquivo é importante que descreva brevemente o que contém na imagem e o atributo ALT deve ser especificado, caso a imagem não possa ser carregada por algum dispositivo e também para que o Googlebot possa identificar o contexto que a imagem está inserida. O tamanho da imagem é fator de penalização pelo Googlebot caso seja muito grande e demore muito para carregar e por último, mas não menos importante, deixe suas imagens no mesmo local da sua página, isso ajuda o Googlebot a assimilar melhor o assunto (texto) com a imagem. 

Headings: Os heading ou títulos/subtítulos são os elementos que se destacam pela sua hierarquia e indicados pelos códigos HTML <h1>, <h2>, <h3>, <h4>, <h5>, <h6>. Sempre utilizamos <h1> para títulos e o restante respeitando sua ordem de prioridades para subtítulos. Um fator importante é sempre certificar que estes elementos contenham as palavras-chave corretas, para ajudar no ranqueamento do Google. Nunca utilize mais de um <h1> em cada página carregada,  e quando aos outros não há problemas, ou seja, você poderá utilizar múltiplos <h2> ou <h3> e assim por diante na sua página.  

Textos simples: Sempre utilize as suas palavras-chave em meio ao texto/conteúdo da sua página, isso aumenta as chances por exemplo, se você mencionar “aprender inglês rápido” no texto do seu post, a probabilidade de que sua página seja indexada para exibição nas buscas do Google aumente consideravelmente, e não tenha medo de repetir as palavras-chave no decorrer do texto, isso fará com que o Google cruze e quantifique as ocorrências dessas palavras, mas a coerência não faz mal a ninguém, então seja cauteloso e não force o aparecimento destas palavras-chave, tenha certeza que esteja dentro do contexto e que fique de forma natural, sem aparentar que você está forçando uma situação nitidamente para efeitos de ranqueamento e não pensando na experiência de leitura do seu leitor. Importante: Não crie conteúdos rasos ou superficiais, além da internet já estar repleta destes conteúdos que não se aprofundam, e não entregam conhecimento, você estará correndo o risco de deixar o seu leitor voltar ao Google para buscar novamente sobre o assunto que o seu conteúdo não foi capaz de dirimir por completo. 

Linkagem interna: A internet e seus websites são compostos por links, assim como os internautas, os robôs de pesquisa, também identificam as páginas através dos links. Então organize a sua página com links agrupados, organizados que melhorem a navegação, ajudem no reconhecimento de novas páginas e distribuir pelo seu website links externos trazendo tráfego externo. Outro quesito importante é sempre relacionar páginas sobre assuntos semelhantes.

Sitemap.xml: Se vocês subir o arquivo sitemap.xml do seu website através da ferramenta para webmaster do Google chamada “Google Search Console” conforme vocês pode verificar abaixo, teremos duas vantagens básicas. Primeiro tempo de indexação das suas páginas vai diminuir consideravelmente e segundo, URLs com linkagens ruins serão indexadas mesmo que o Googlebot não consiga identificá-las de forma automatizada.

Conforme podemos observar na imagem acima, basta colar no campo disponibilizado a URL onde se encontra o arquivo sitemap.xml que está na hospedagem do seu website e aguardar o processamento.

DICA: A otimização de páginas do seu website que estão nas posições médias entre 6 e 20 para chegarem nas primeiras é ouro!Abaixo você consegue perceber no gráfico tirado de um estudo da Advanced Web Ranking, apresentando CTRs muito maiores para páginas listadas nas primeiras posições.

É um trabalho de formiguinha, mas funciona, basta ter resiliência e não se frustrar caso sua página esteja em uma posição muito distante. Siga em frente analisando os concorrentes, melhorando seu conteúdo frequentemente e utilizando ferramentas que te ajudem a entender os motivos pelo qual seu conteúdo não está sendo tão relevante quanto você gostaria no Google ou outros buscadores da internet. Nós na Lands utilizamos o Semrush como ferramenta de trabalho para SEO, postagens, Análises de buscas orgânicas e pagas, além da análise de backlinks e links tóxicos. 

Fique atento à velocidade e desempenho do website

Este é um fator importantíssimo, há muitos anos que o Google avalia a velocidade de carregamento das páginas da web como fator de classificação nos resultados de busca. A data mais precisamente que o próprio Google anunciou oficialmente que começaria a utilizar o critério de classificação foi em 17 de janeiro de 2018 e efetivamente começou a valer a partir de julho de 2018.

Para testar a velocidade de carregamento do seu website e obter um relatório completo sobre o desempenho, basta acessar o site Think With Google e inserir o link da página que deseja analisar.

Você deve estar atento sempre com relação ao desempenho do seu website e como melhorar a velocidade de carregamento, afinal, afeta direta ou indiretamente a taxa de conversão e também para as classificações orgânicas nos buscadores. Abaixo vou listar algumas dicas preciosas para que vocês tenha um site TOP:

  • Siga as instruções a risca do Google Page Speed Insights ou Think With Google;
  • Monitore e mantenha a nota do Page Speed Insights acima de 90 pontos;
  • Garanta que todas as páginas do seu site carreguem no máximo até 3 segundos.

Dica: Fique atento que a avaliação é feita por página, então coloque individualmente cada página para avaliar, por exemplo, se você colocar somente o seu domínio www.seudominio.com.br o Google irá avaliar somente a página inicial do seu website. Portanto procure colocar todas as páginas, como www.seudominio.com.br/sobre, que estão mapeadas no seu site através do sitemap.xml. Um Ctrl + C e Ctrl + V das páginas de dentro do arquivo irá lhe ajudar a ganhar tempo!Mas não fique obcecado, além dessas métricas serem bem exigentes até o próprio www.google.com não tem um desempenho extraordinário no mobile, seja:

Desktop

Mobile

A base de cálculo é feita através do projeto Lighthouse, e você pode verificar como o Score é calculado aqui, a cada versão que é atualizada estas métricas são atualizadas ou acrescentadas, você pode classificar por tipo de dispositivo e escolher a versão de teste, até o momento onde escrevo este post temos as versões 5, 6, 7, e 8 como podemos observar na imagem abaixo. 

OK, você deve estar se perguntando neste momento o que significa realmente cada Sigla ou nomenclatura acima, pois bem, abaixo irei listar e te explicar cada uma de forma resumida e objetiva, do mais relevante para o menos relevante na versão 8:

  • Total Blocking Time (TBT) 30%: Faz parte da seção de Performance do Lighthouse. é a soma de todo tempo entre o FCP e o tempo de interação, quando o tamanho da tarefa de execução excede 50 ms (milisegundos);
  • Largest Contentful Paint (LCP) 25%: É a maior renderização de conteúdo identificado, é uma métrica importante, pois analisa o carregamento real percebido pelo usuário. O LCP captura basicamente o início da experiência, se seu site tem um “Loading” isso é ruim e desinteressante para o usuário, portanto ponto crítico percebido pela análise.    
  • Cumulative Layout Shift (CLS) 15%: Esta métrica Core Web Vitals, mede a instabilidade do conteúdo somando as pontuações das alterações de layout que não ocorrem dentro de 500ms de entrada do usuário. Devemos observar o quanto o conteúdo visível mudou na janela de visualização, bem como a distância em que os elementos impactados foram deslocados.
    Para ter certeza, o Google irá manipular o movimento na página e, em seguida, medir o quanto os elementos individuais mudam. Isso gera pontuações de mudança de layout para cada mudança de layout inesperada.
    Se quisermos entender tecnicamente como o Google realmente calcula essa métrica, ele usa esta equação:

    pontuação de mudança de layout = fração de impacto * fração de distância

    Cada uma dessas frações é calculada com base no movimento dos elementos em relação ao tamanho da janela de visualização. Se você quiser saber mais, pode ler a documentação do Google sobre CLS aqui https://web.dev/cls.

  • First Contentful Paint (FCP) 10%: Esta métrica mede o tempo desde o início do carregamento da página até o momento em que qualquer parte do conteúdo da página é renderizada na tela. Para esta métrica, “conteúdo” se refere a texto, imagens (incluindo imagens de fundo), <svg> ou elementos <canvas> não-vazios. Uma ótima métrica de carregamento é até 1,8 segundos.
  • Speed Index (SI) 10%: O índice de velocidade mede a rapidez com que o conteúdo é exibido visualmente durante o carregamento da página. O Lighthouse primeiro captura um vídeo do carregamento da página no navegador e calcula a progressão visual entre os quadros. O Lighthouse então usa o módulo Speedline Node.js para gerar a pontuação do Speed ​​Index.
  • Time to Interactive (TTI) 10%: É basicamente o tempo que a sua página leva para estar 100% pronta para interação do usuário. A página é considerada totalmente interativa quando:

  1. A página se mostra com conteúdo usual,que é medido pelo First Contentful Paint;
  2. Os manipuladores de eventos são registrados para a maioria dos elementos visíveis da página e;
  3. A página responde às interações do usuário em 50 milissegundos.

Dica: Pra você que gosta ou entende um pouco de inglês, ou se não entende é uma boa hora pra aprender, um dos engenheiros do google e evangelizadores do tema Web Performance Phil Walton “tweetou” sobre o tema ou tendência que divulgou há alguns anos: “My Challenge to the Web Performance Community” em um artigo no seu website, vale a pena conferir aqui.

Log File Analyzer (Análise do arquivo de LOG)

A análise do arquivo de log é uma fonte extremamente valiosa de dados 100% precisos que permitem que você entenda o que acontece quando um mecanismo de pesquisa rastreia seu site.

Aqui na Lands nós utilizamos a ferramenta da Semrush que nos ajuda a responder a perguntas como:

  1. Que erros foram encontrados durante o rastreamento?
  2. Quais páginas não foram rastreadas?
  3. Seu orçamento de rastreamento está sendo gasto de forma eficiente?
  4. Quais são as suas páginas mais rastreadas?
  5. Você pode gerenciar o rastreamento do Googlebot

Rastreabilidade

Além de se concentrar em adicionar e otimizar páginas para palavras-chave relevantes e fazer o link building, você deve monitorar constantemente se os rastreadores da Web podem acessar seu site e relatar o que encontram para o mecanismo de pesquisa.

Para isso você deve entender a rastreabilidade e indexação do seu site!

Tudo isso é a respeito de como os robôs acessam e indexam as suas páginas para adicioná-las ao seu índice. É a capacidade que o mecanismo de pesquisa tem de rastrear e pesquisar o seu conteúdo com facilidade, simplesmente seguindo os links entre as páginas. Problemas comuns são os links quebrados, isso causa um problema grande de rastreabilidade – a capacidade do buscador acessar conteúdos específicos do seu site. A indexação, refere-se à capacidade do robô de busca em analisar e adicionar a sua página ao índice de páginas do buscador.

Importante: mesmo que o buscador consiga rastrear o seu site, tenha certeza de analisar erros de rastreabilidade e indexação, por isso sempre faça auditorias com softwares especializados do seu arquivo de log, que contém 100% das requisições http externas, inclusive os acessos de robôs.

Veja como o Google define a taxa de rastreamento:

“O limite de taxa de rastreio do Googlebot foi concebido para ser um bom cidadão da Web. O rastreamento é sua principal prioridade, garantindo que ele não prejudique a experiência dos usuários que visitam o site. Chamamos isso de “limite de taxa de rastreamento”, que limita a taxa máxima de busca de um determinado site. Simplificando, isso representa o número de conexões paralelas simultâneas que o Googlebot pode usar para rastrear o site, bem como o tempo que ele precisa aguardar entre as buscas. A taxa de rastreamento pode aumentar ou diminuir com base em alguns fatores, como, por exemplo, a saúde do rastreamento: se o site responder rapidamente por um tempo, o limite aumenta, o que significa que mais conexões podem ser usadas para rastrear. Se o site ficar lento ou responder com erros do servidor, o limite será reduzido e o Googlebot rastreará menos. ”Podemos dizer que o limite de rastreamento é uma excelente maneira de estimar o desempenho de um website nos resultados de pesquisa, pois um orçamento de rastreamento melhor leva a um tráfego mais orgânico, pois aumenta a importância de um site aos olhos do Google. Nas palavras do Google “Uma taxa de rastreamento aumentada não levará necessariamente a melhores posições nos resultados da Pesquisa”. O uso da palavra significa que a taxa de rastreamento realmente tem impacto no desempenho da pesquisa e pode ser considerada um fator de ranqueamento.

Elimine problemas técnicos de SEO

Nós utilizamos a ferramenta Site Audit da SEMRush para descobrir os erros e problemas técnicos de SEO mais comuns no nosso site e site de clientes.

Antes de falarmos sobre a eliminação dos problemas de SEO mais comuns, veja este caso de estudo que a própria SEMRush executou com mais de 100.000 dados anônimos e 450 milhões de páginas.

Eles trazem estatísticas de 40 verificações, divididos em três grandes grupos, estarei resumindo abaixo:

  • Rastreabilidade
    16,98% tem configurações incorretas do domínio www, 5,49% tem cadeias de redirecionamento: Problemas de links e redirecionamentos. Certifique-se de que todas as páginas principais do seu site estão disponíveis para seus usuários e tenha cuidado com redirecionamentos – de acordo com a pesquisa a cada 4 (quatro) sites 1 (um) tem problemas. Os Links quebrados somam 33,29%, 80,17% são erros 4xx e 10,01% erros 5xx. Destes 29,29% são redirecionamentos temporários, 30,94% são links internos com atributos nofollow, 28,89% são links externos quebrados, 36,09% são links externos com atributo nofollow e por fim 0,33% é porque contém muitos links na página.
  • SEO Técnico
    Sitemap: Alma e coração do seu site precisam de tratamentos exclusivos. É bom saber que 80% dos proprietários de site estão cientes disso. O mapa do site mostra aos bots de pesquisa o caminho certo, ajudando a não perder algo importante. De acordo com a pesquisa, 13,19% contém erro de formato do arquivo SITEMAP.XML, 10,92% mostram páginas erras no SITEMAP.XML, 19,34% onde o SITEMAP.XML não é encontrado e também que 15,91% dos sites da pesquisa mostram que o SITEMAP.XML não é indicado no ROBOTS.TXT.

Quanto à velocidade da sua pagina, 1, 2, 3, 4… Ninguém gosta de esperar. Se a sua página está lenta pode esquecer de ranqueamentos altos e visitantes. De acordo com a pesquisa, 23,16% dos sites analisados continham páginas lentas e 0,98% páginas HTML muito pesadas. Mas o que mais impressionou foi que ainda continham sites utilizando tecnologias antigas, 0,38% ainda continuam utilizando FRAMES, 5,78% insistem na utilização de FLASH e 9,03% sem a declaração do DOCTYPE.

  • SEO On-page
    “Nem todas as páginas do site devem ter textos perfeitamente escritos” – pode pensar o proprietário do site, não dando importância a esses erros. No entanto, é crucial certificar-se de que as suas páginas principais estão livres desses erros. Além disso, a relação de texto para HTML pode ser considerada como um indicador de qualidade do seu código. De acordo com a pesquisa 65,88% das páginas contém conteúdo duplicado, 93,72% tem proporção baixa de texto para HTML e 73,47% possuem quantidade baixa de palavras na página. Quanto à META DESCRIPTION/meta descrição, 53,99% são duplicadas e 63,28% ocorre a falta dela. Os motores de busca não se importam muito com esses erros – nem os proprietários dos sites, o que torna os erros de descrição meta tão comuns. Mas é melhor poder decidir como o seu sniper vai aparecer no SERP e fornecer uma descrição meta relevante, em vez de permitir que os mecanismos de pesquisa compilem o texto.     

Mais uma propriedade importante é o TITLE TAG, “Se não tiver um impacto significativo nos rankings – não é importante”. Parece que Title Tags são vítimas deste conceito. Mas não se esqueça da importância da Title Tag para CTR (Click Through Rate). Na pesquisa 10,53% não tinham a Title Tag descrita, incríveis 61,01% Title Tags muito compridas, acreditem 53,23% continham Title Tags Duplicadas e 26,33% Title Tags com pouco texto.  As Tags <h1> dão pistas para os usuários sobre o contexto da página. pena que muitas vezes os H1 são negligenciados.

As imagens, bom, na maioria das vezes os proprietários de sites se esquecem de otimizar as imagens. Isso é compreensível, afinal, as imagens não impactam tanto assim no ranqueamento e nem na saúde do site. Mas sem otimização os usuários podem ficar insatisfeitos – cuidado com isso! De acordo com a pesquisa, 63,25% há falta da Tag H1, 35,11% contém conteúdo duplicado de H1 e cabeçalho e 59,27% possuem múltiplos cabeçalhos H1. Quanto às imagens, 8,66% possuem imagens internas com erros, 5,25% possuem imagens externas com erros e 65,53% falta o atributo ALT.

E por fim sabemos que pesquisa mobile está no auge e é bom saber que de acordo com a pesquisa, poucos sites tem erros de mobile SEO. Mas é importante lembrar que nem todos os sites analisados têm versão mobile e páginas AMP (Accelerated Mobile Pages).

Quem deve considerar o uso do SEO Técnico e afins?

Para concluir esta análise, temos que dizer que este é um tema verdadeiramente abrangente e poderoso que cobre praticamente todos os aspectos que envolvem SEO e suas variantes dentro do marketing digital.

Embora isso possa parecer que, para aplicar essas técnicas, você precisa ser ou ter um profissional de marketing experiente, não é necessariamente o caso. Qualquer pessoa pode estudar e encontrar informações na internet, ou simplesmente utilizar ferramentas como SEMRush ou screaming frog, verificar o desempenho dos concorrentes no campo de batalha e melhorar.

Se você está se esforçando para impactar seu superior ou impactar seu negócio através de uma estratégia de busca orgânica ou precisa de ajuda com novas palavras-chave para trazer aquele tráfego orgânico crucial, não exite em nos contatar, estaremos sempre dispostos a contribuir para o mundo conectando pessoas e empresas incríveis ao sucesso.

Com este “checklist” abrangente qualquer grande ou pequena empresa, poderá aprimorar vários fatores para o sucesso na análise orgânica de marketing. 

E aí, curtiu o conteúdo? Quer sugerir alguma nova pauta? Quer compartilhar algo que já fez no seu projeto? Deixe o seu comentário!

14 de julho de 2022
Categorias SEO, Sites

Deseja receber dicas e

novidades imperdíveis?

Veja alguns dos nossos materiais