Posted by Dayane Iglesias |
Pra ser indexado pelo Google você deve utilizar o Robots.txt ou Robots Exclusion Protocol. Com ele você pode dizer os diretórios, páginas e áreas do seu site que você quer ou não que sejam indexados. Você também deve adicionar o Sitemap no provedor.

Uma outra opção para você dizer as páginas que você não quer que sejam indexadas é através da utilização de meta tags, por exemplo no caso do Google você pode usar:

< name="”googlebot”" content="”noindex”">

As meta tags são mais recomendadas quando você precisa bloquear o acesso em poucas páginas, ou em paginas especificas e também quando voce tem acesso ao codigo fonte das paginas para edita-lo.
Já o robots.txt é mais facil para controlar ou negar o acesso a diretórios ou grupo de páginas.