Transcrição do primeiro artigo sobre SEO, escrito para a Revista Programar n.º 34.
Este artigo introduz este tema na Revista Programar assim como marca a minha estreia na produção de conteúdos para este projeto. É um orgulho fazer parte de uma equipa que de forma voluntária leva até todos os leitores lusófonos, artigos relacionados com as TIC (Tecnologias da Informação e Comunicação) de elevada qualidade, sendo hoje uma publicação de prestígio no panorama editorial português.
Este primeiro artigo fará a introdução ao SEO, preparando o arranque para uma série de artigos onde tentarei abordar todos os aspetos sobre o SEO, desde os mais básicos, às técnicas mais avançadas, passando pelas dicas uteis e truques que podem ajudar a melhorar o SEO dos nossos Websites.
Mas o que é isto do SEO e qual a sua importância? Esta é uma pergunta que muitos fazem depois de ouvirem falar ou lerem esta sigla. Search Engine Optimization (optimização de motores de busca) ao contrário do que nome indica, não é um processo de otimização ou melhoria de motores de busca. É sim a preparação e otimização de um Website para que obtenha uma maior “visibilidade” junto dos motores de busca, como o Yahoo ou o Google, entre outros. Como iremos ver mais lá para a frente, os algoritmos e mecanismos internos de um motor de busca são como uma caixa negra, onde não temos acesso. O processo de SEO não ocorre directamente do lado dos servidores dos motores de busca da internet, mas do lado dos nossos sites. Se todos nós os consultores de SEO tivéssemos acesso às “entranhas” dos motores de busca neste processo de otimização, isto causaria a “batota” nos resultados das pesquisas dos motores de busca, pelo que no SEO o que melhoramos é a forma como os nossos sites se anunciam a eles, e não ao contrário, como é óbvio.
A Internet é hoje em dia um veículo de distribuição de informação, nas suas mais variadas formas. Quer seja para reforçar a presença na Web de uma empresa/organização, quer via portais informativos ou noticiosos, que têm vindo cada vez mais a afirmarem-se como meios privilegiados junto dos internautas, que procuram informação actualizada ao minuto, a “grande rede” é cada vez mais um mundo de negócios onde a cada segundo ocorrem milhões de transações por todo o globo.
Por esse motivo todos os dias surgem milhares de sites, dos quais muitos deles abordam os mesmos temas. Quer se trate de uma empresa que pretende divulgar e comercializar um produto específico, quer sejam blogues pessoais ou portais informáticos que disseminam conteúdos noticiosos, todos almejam o mesmo fim, levar a sua informação ao maior número de pessoas possível e alcançar o seu “lugar ao sol” na Web.
São as pessoas as destinatárias de um Website, independentemente do tipo dos seus conteúdos, é a pensar nelas que as páginas na Internet vão surgindo. Contudo por vezes embora existam milhares de sites que contêm determinado tipo de assunto X que interessa a determinada pessoa, surgem dificuldades várias que impedem que as pessoas encontrem e acedam a esses conteúdos. Estes entraves podem ser de várias ordens, mas o principal reside na dificuldade em encontrar a informação pretendida na imensidão da internet, ou por vezes o site que contém a informação desejada, está tão “escondido” que não o conseguimos encontrar.
É neste contexto que surge a necessidade de criar mecanismos eficientes que facilitem a procura dessa informação, os ditos motores de busca, que permitem aos cibernautas encontrar mais facilmente a informação que procuram.
Os motores de busca são no momento actual da evolução da Internet, mecanismos fulcrais tanto para os utilizadores, que são ajudados a encontrar os sites que contêm a informação que procuram, como para os Webmasters desses portais, que podem assim dar mais visibilidade ao seu trabalho e receber mais tráfego sem terem de gastar dinheiro com publicidade constante e dispendiosa. Eles percorrem a Internet e vão “catalogando” os sites que vão encontrando, disponibilizando depois esses índices aos utilizadores das suas ferramentas de pesquisa.
Nasce então a necessidade de optimizar os nossos sites para que os motores de busca os encontrem e indexem mais fácil e rapidamente, para que não percamos a corrida face à nossa concorrência, pois tal como já referimos, não estamos “sozinhos no mundo”. É essa necessidade de optimização que levou a que surgisse um novo conceito, o SEO (Search Engine Optimization).
Este tema tem ganho um relevo tal que nos últimos tempos, em especial os grandes operadores comerciais na internet, têm investido milhões em serviços de consultoria, com o intuito de melhorarem a sua visibilidade face à concorrência. Empresas como a Amazon, Ebay entre outras, podem aumentar a sua rentabilidade e volume de negócios com técnicas simples que lhes direcionam mais trafego oriundo dos motores de pesquisa na internet, para os seus sites.
SERP’s – Seach Engine Result Pages – O que são?
É nos SERP’s que se reflete todo o trabalho do SEO. Os SERP’s, ou páginas de resultados dos motores de busca, são as páginas dos motores de busca que devolvem os resultados de uma determindada pesquisa que efectuamos.
Estas páginas ordenam por ordem de importância, de acordo com os algoritmos dos motores de busca, os sites e páginas que melhor se relacionam com o termo ou frase que introduzimos no campo de pesquisa. Desta forma, o SEO (Search Engine Optimization) é o processo que visa melhorar a visibilidade de um site nos resultados de um motor de busca. Quanto mais alto surgir o resultado contendo o link para nosso site, nos resultados de um qualquer busca, mais altas são as probabilidades de quem pesquisa lá clicar e assim visitar o nosso site.
Estes resultados são ordenados de duas formas. De forma paga, (SEM: Search Engine Marketing) onde os Webmasters dos sites pagam aos motores de busca para colocar os seus portais no início das listas dos resultados, ou de forma livre, mediante a aplicação de um algoritmo orgânico de um motor de busca. Numa fase mais avançada iremos perceber algumas das variáveis desses algoritmos e de que forma podermos melhor o seu impacto nos nossos Websites.
Como podemos observar pela imagem seguinte, o “Golden Triangle” (triângulo dourado) é a Hot zone dos SERP’s onde existe uma maior probabilidade da pessoa que pesquisa ir clicar num resultado. Quanto mais perto desta zona conseguirmos colocar o nosso site, maiores são as hipóteses dessa pessoa visitar o nosso site. É para esta zona preciosa dos SERP’s que iremos trabalhar os nossos sites e é por causa dela ela que o SEO assume um papel tão preponderante.
Do ponto de vista da implementação, o SEO considera a forma como os motores de busca funcionam e o que as pessoas pretendem encontrar. Optimizar um portal pode significar editar o seu conteúdo e código fonte, de forma a aumentar a relevância a palavras-chave (Keywords), bem como eliminar os “entraves” aos motores de busca, que indexam os sites pela Internet. Existem várias técnicas utilizadas no SEO, que irão ser identificadas ao longo desta série de artigos, como por exemplo os backlinks, que são o número de links que existem a apontar para os nossos sites, e que são tidos em linha de conta pelos motores de busca (Google) no cálculo da relevância que o site tem. Quantos mais backlinks existem para o nosso site, mais alto é o seu rank para os motores de busca, embora não seja apenas este o factor que determina o ranking de um site nos SERP’s. Não se preocupem para já com estes termos e a sua complexidade pois iremos falar do que são e para o que servem de uma forma mais detalhada e aprofundada.
Já que entrámos nos termos mais técnicos, a palavra SEO é um acrónimo que resulta das palavras Search Engine Optimizers, um termo adoptado pela indústria de consultores que trabalham em optimização de sites. Como as tarefas de optimização podem envolver alterações no código das próprias páginas, muitas destas tarefas também podem passar pelos próprios Webdesigners.
O termo search engine friendly (SEF) pode ser usado para descrever sites, designs, menus, imagens etc., que foram optimizados para os propósitos do SEO, de forma a melhorar a sua exposição aos motores de busca.
Outro termo também empregue em SEO é o Black hat SEO, que são tácticas que pretendem desvirtuar as regras de indexação dos motores de busca, utilizando sistemas como o spamdexing, ou farms de links, Keyword stuffing, etc., que podem degradar de forma significativa a relevância e fidedignidade dos resultados das pesquisas nos motores de busca. Contudo estas técnicas apenas são temporariamente vantajosas, uma vez que mais cedo ou mais tarde os motores de busca removem esses sites dos seus índices.
História do SEO
O conceito de SEO teve o seu início em meados da década de 90 do século XX, quando os Webmasters começaram a ter preocupações com a optimização dos seus sites para os motores de busca. Inicialmente todos os Webmasters tinham de submeter manualmente os seus sites aos motores de busca, para indexação, URL (link) por URL, que posteriormente enviavam os seus indexadores, ou spiders, para indexarem (crawl) os seus sites.
De acordo com o analista Danny Sullivan, a frase “Search Engine Optimization” deve ter sido proferida pela primeira vez em 1997, onde o primeiro uso documentado do SEO foi feito por John Audette, na sua empresa Multimedia Marketing Group.
O processo de indexação consiste na visita de um spider a um site. Este descarrega a página em questão para o Servidor do motor de busca a que pertence, onde um segundo mecanismo, conhecido por indexer (indexador), extrai informações diversas sobre a página, como as palavras que contém, os links contidos nela, palavras específicas etc.
Depois da operação ter sido dada como terminada, o motor de busca agenda uma nova visita, para verificar alterações. Existem no entanto páginas que podem ser ocultadas desta pesquisa, colocando-se directivas específicas nas ditas páginas, que informam os crawlers que devem evitar a indexação das mesmas, como iremos ver mais para a frente.
Os primeiros algoritmos de indexação de Websites
As primeiras versões dos algoritmos dos motores de busca assentavam na fiabilidade das informações prestadas pelos Webmasters dos sites, tais como as meta tags . Estas informações eram usadas pelos indexadores para categorizar os conteúdos e organizar os resultados das passagens dos crawlers pelos sites.
Contudo, basta que o Webmaster se engane (propositadamente ou não) na escolha das palavras-chave (Keywords), isto pode originar que os resultados das pesquisas não revelassem o que os pesquisadores realmente necessitavam de encontrar. Descrições incompletas, inconsistentes nas meta tags “enganavam” os motores de busca e causavam uma atribuição “injusta” dos ranks dos mesmos.
Ao confiar demasiado na densidade de Keywords, que eram exclusivamente da responsabilidade e controlo dos Webmasters, os motores de busca sofriam de abusos e manipulações nos seus rankings.
De forma a evitar estas indexações fraudulentas, os motores de busca tiveram que posteriormente vir a adoptar medidas de controlo de forma a assegurar que os seus resultados fossem ao encontro daquilo que os utilizadores pesquisavam, pois o seu sucesso depende de forma directa pela sua capacidade de satisfazer os pesquisadores. A resposta dos motores de busca veio com algoritmos mais complexos, que tinham em linha de conta outros factores, que seriam mais difíceis de manipular por parte dos Webmasters.
SEO – GOOGLE
Quando pensamos em motores de busca vem-nos imediatamente à cabeça o motor de busca da Google. Este pensamento “reflexo” deve-se ao enorme sucesso que a empresa de Mountain View conseguiu ter junto dos utilizadores do seu popular e eficiente motor de busca, como o mesmo nome da empresa.
No seu tempo de estudantes universitários da Universidade de Stanford, Larry Page e Sergei Brin, actuais detentores do Google, desenvolveram o Backrub, um motor de busca que se baseava num algoritmo matemático que atribuía o rank às páginas da Internet. O número calculado por esse algoritmo, chamado de PageRank (PR), é resultante de uma função que mede a quantidade de links de retorno (inbound links) para determinado site.
O PageRank é uma estimativa da probabilidade que um utilizador que navegue na Internet aleatoriamente, seguindo de link para link, chegue a determinado site. Na realidade isto significa que alguns links têm mais peso do que outros, sendo por si também mais relevantes que outros, pois uma página com um PageRank mais elevado, tem mais probabilidade de ser acedida do que outras com rank inferior.
Foi esta a receita do sucesso da Google, que em vez de se “fiar” apenas nas Keywords dos Webmasters tendenciosos, prefere medir a popularidade e relevância de uma página, pelo que os outros dizem dela, e não apenas de quem a construiu. Se uma página tem conteúdos importantes, é mais provável que surjam mais links para ela, do que uma página com pouco interesse. Ora a Google mede esse “interesse” quando atribui um PR a uma página ou site.
Em 2005 a Google introduziu um novo conceito de personalização dos seus resultados de pesquisas para cada utilizador, dependendo das suas pesquisas anteriores. Este novo conceito desvirtua um pouco o mecanismo de atribuição de PageRank, pois para um utilizador determinado site pode ter um posicionamento e para outro utilizador pode ter outro totalmente diferente. À bem pouco tempo a Google foi ainda mais longe com essa personalização e aprovou novas politicas de recolha de dados associados aos seus utilizadores registados, sendo que determinado utilizador que faz uma pesquisa hoje, ve os resultados da mesma serem influenciados pelo relacionar de outras consultas anteriores. Em termos de privacidade dos utilizadores esta pode ser uma medida preocupamente, mas o que é certo é que existem vantagens obvias com esse cruzamento de dados, pois pessoas diferentes possuem gostos diferentes e assim a Google consegue “refinar” os SERP’s para irem cada vez mais ao encontro das necessidades dos utilizadores.
O conceito de SEO funde-se com o próprio Google. A Google detêm mais de 60% da fatia de mercado dos motores de pesquisa (dados da empresa Comscore). O seu algoritmo é único e ultra-secreto e pode ser crucial para o sucesso ou insucesso de um site. Podem existir mais de 200 critérios que o Google utiliza para atribuir um PR a uma página, e estes podem ser categorizados em duas grandes secções: factores on-site e off-site. O Google valoriza os sites que disponibilizam conteúdos de qualidade, com relevância, de navegação fácil, onde os utilizadores encontram facilmente o que pretendem.
Por agora fiquemos por aqui, pois o mundo do SEO, seus conceitos, técnicas e processos são vastos. Nos próximos artigos irei entrar em detalhe em cada um deles e tentar explicar da melhor forma possível como se podem aplicar em contexto real num website. Por isso até á próxima e espero que tenham gostado deste meu primeiro artigo na Programar.