Guía para principiantes de Google Webmaster Tools

Hace poco me pidieron un manual para que un SEO no técnico o junior pudiera entender qué hacía yo al revisar las Google Webmaster Tools. Y como cada vez hay más gente de perfil no técnico interesada en aprender y practicar SEO, para ellos va esta guía. Si tienes un perfil más senior, espero que la puedas encontrar interesante.

Las Webmaster Tools de Google (GWT a partir de ahora) es un servicio más que Google pone a nuestra disposición gratuitamente. Hoy en día es una herramienta indispensable que permite saber con qué problemas se van encontrando los robots, y por lo tanto los usuarios, al recorrer tu web.

Add a site

Lo primero que necesitas es una cuenta para entrar en GWT y añadir tu sitio web. Google te pedirá que verifiques que eres el propietario de la web. Puedes hacerlo de varias maneras. La más sencilla es pedir a quien tenga acceso que te habilite como usuario, pero en caso de que nadie te pueda dar acceso, haz la recomendada: descargar un archivo HTML que deberás subir al servidor.

Una vez verificado tu sitio puede pasar algún tiempo antes de que veas cualquier dato. No te preocupes, solo deberías que esperar unas horas lo más tardar.

Dashboard

Desde aquí tienes una vista general con cierta información relevante. Cuáles son las palabras clave para las que aspiras en las SERPs, las keywords que Google piensa que son relevantes en tu site, los errores que localiza el crawler, los links que apuntan a tus páginas y el estado de los sitemaps y las páginas indexadas que hay en ellos.

Site Configuration

Sitemaps

Los sitemaps no son necesarios si tienes una buena estructura web, pero siempre son aconsejables, y más cuando Google te indica el número de URLs indexadas que hay en ellos. Si consigues poner todas tus URLs indexables en sitemaps, encontrarás la mejor manera de controlar la indexación: un KPI obligatorio.

También gracias a los sitemaps podrás localizar rápidamente los errores que puedas tener en tus páginas más importantes (ver la opción Crawl errors – In sitemaps descrita más adelante). Estos errores de crawleo los deberás controlar: una cuota de errores en los sitemaps puede hacer que los buscadores los ignoren. Hay que tenerlos actualizados y con los problemas corregidos.

No te preocupes si no llegas al 100% en la indexación de estas páginas, pero si tienes un 50% o un 75% por indexar mira cómo solucionarlo: Los problemas más comunes si no se indexan las páginas son el contenido duplicado, un déficit en el linking interno o poca autoridad si lo que pretendes es indexar decenas de millones de páginas.

Panel de sitemaps en las webmaster tools

Si quieres más información de cómo funciona esta opción con los nuevos cambios que han hecho tienes este post de referencia.

Crawler access

Siempre hay ciertas páginas por las que no quieres que Google pierda el tiempo porque no las quieres indexar. Esto lo consigues creando el fichero robots.txt. Desde aquí podrás generar y testear dicho fichero y además eliminar alguna página indexada que se haya escapado a tu control.

Para eliminar una URL del índice de Google, tienes que tenerla inaccesible en el robots.txt. Por ejemplo, si quieres borrar todo el site, el robots tendrá que estar a Disallow en la raíz:

User-agent: *
Disallow: /

Este mismo ejemplo sirve para avisarte del sumo cuidado que deberás tener en esta sección. Ante una repentina bajada de tráfico revisa el fichero siempre, nunca se piensa a primeras que el problema puede ser dicho fichero porque no entra en la cabeza de nadie que algo tan delicado haya sido modificado… pero puede pasar!!

Sitelinks

Los sitelinks son las URLs de tu web que Google cree más populares y normalmente aparecen en forma de links en los rich snippets cuando alguien busca por tu marca, por tu dominio o por tus páginas más populares. Como Google no es perfecto y lo sabe, te da la oportunidad de vetar los que no te gusten.

Change of address

Si cambias de dominio deberías utilizarlo, pero a día de hoy no cambiaría de dominio… Las redirecciones no funcionan como antes y esto es algo de lo que se empiezan a quejar algunos SEOs. Si te la juegas debe ser porque el SEO no atrae demasiado tráfico o por razones de fuerza mayor, como un cambio forzado de marca o similar… y siempre advirtiendo del riesgo que conlleva.

Settings

De las opciones que hay aquí la más divertida es el crawl rate o velocidad con la que el bot pasa por tu sitio. Puedes jugar con ello según te interese. Si hay una subida a producción en la puede haber errores críticos, puedes bajar la velocidad al mínimo, mientras que si hay nuevo contenido a raudales, puedes pedir al bot que vaya a toda pastilla (siempre asegurándote que el servidor puede aguantar la carga).

El resto es geolocalizar tu web al país correspondiente (siempre que te interese) o decirle a Google como quieres que se muestren tus URLs, con www o sin www… pero esto lo deberías tener solventado a nivel técnico o estarás duplicando tu site al completo. La siguiente RewriteRule redirige cualquier URL sin www:

RewriteCond %{HTTP_HOST}  ^example\.com
RewriteRule ^(.*)$ http://www.example.com/$1 [R=301,L]

URL parameters

Esta sección también es complicada. Si no eres técnico más vale que hagas caso del aviso de Google y trates de averiguar cómo funcionan los parámetros a nivel general y en tu web:

Use this feature only if you’re sure how parameters work. Incorrectly excluding URLs could result in many pages disappearing from search.

Your website on the web

Tampoco me quiero entretener mucho por esta sección, es poco técnica, intuitiva y fácil de entender. Repasemos los puntos rápidamente.

Search queries

El volumen de búsquedas de las palabras clave que trabajas en tus URLs versus el número de visitas que te proporcionan. No solamente podrás controlar el CTR individualmete en una keyword o URL determinada, estos gráficos pueden ayudarte a entender tendencias estacionales muy segmentadas y determinar si hace falta realizar acciones o no.

search queries en webmaster tools
Search queries. Estando en primera posición ¿por qué tenemos un CTR tan bajo? hay que mirarlo!!

Links to your website

Ya sabemos lo importantes que son los links… o que eran. Cada vez es más turbio este asunto: la política de Google es acabar con el mercado negro de links y su peso no es el que era. Quizá lo interesante ahora es controlar links que te puedan perjudicar (porque te pueden perjudicar). Recuerda no obstante que hay mejores aplicaciones en el mercado para controlar el linking.

Keywords

Google te muestra las palabras clave por las que piensa que tu web quiere rankear… pero eso lo deberías saber tu mejor, así que lo único que puedes ver es si el buscador se equivoca y el porqué se equivoca.

Internal links

¿Qué páginas se llevan el mayor peso del crosslink interno de tu página? El crosslink interno es uno de los factores SEO on page más relevantes. Puedes ayudar a los buscadores si has montado bien tu spider web. Del crosslink depende en gran medida tu indexación y la manera en que te comunicas con los algoritmos para decir cuáles son tus URLs más importantes.

Subscriber stats

Si tienes un blog o utilizas RSS esta sección puede ser útil. Si la gente se suscribe por un post determinado, puedes generar más post de la misma temática ganando más adeptos y fidelizando a los que ganaste.

+1 Metrics

Esta sección es de las últimas en incorporarse. Todos sabemos de la importancia que Google+ ha tomado y seguirá tomando estratégicamente en las diferentes áreas de la gran G. Para un SEO será cada vez más importante controlarlo, así que aquí tienes una manera de medir tus campañas en la nueva red y el impacto que puedan tener.

Diagnostics

Malware

Más vale que el mensaje que te encuentres aquí sea el de que Google no ha detectado nada raro en tu sitio… en caso contrario que no cunda el pánico, trata de entender qué ocurre. Si no entiendes nada alíate con un técnico.

Crawl errors

Una de las opciones más importantes. Hay que revisarlo con frecuencia, sobretodo si no tienes por costumbre lanzar un crawler tu mismo para saber el estado de tu web. Aun así, en un site grande, el bot de Google suele llegar más lejos que los programas convencionales que podamos utilizar. Por lo tanto revisar esta sección es un must.

0 errores encontrados por el bot
Tu reto es tenerlo así siempre

Lo que en crawl errors se nos muestra son los diferentes estatus que el bot puede encontrarse en tu web y que puedan ser dañinos para la indexación. Lo ideal es que no haya errores, pero hay que aprender a saber cuando estos indicadores y sus códigos son realmente un problema. Para empezar, si no lo has hecho ya, más vale que te familiarices con los códigos de estado HTTP. Sabes lo que es un error 404? y un 403 o un 503? pues a partir de ahora deberías saber al dedillo los errores de servidor más comunes junto con las diferentes consecuencias SEO que conllevan. Para ello aquí tienes una referencia SEO de los códigos de estado.

Recoge el número de errores de cada listado regularmente para controlarlos, tienes que dar la alarma si el número crece desmesuradamente. Tu objetivo es tratar de que el número baje semana tras semana como parte de tus KPIs:

  • HTTP. Puedes encontrarte muchos tipos de estado, como un error 403 que te avisaría de problemas de permisos en el servidor.
  • In Sitemaps. Para mi el más importante siempre que tengas todas las URLs indexables en sitemaps, son errores en páginas que te han de traer visitas.
  • Not followed. Son errores de redirección que los robots no pueden seguir. Normalmente por redirecciones infinitas.
  • Not found. En realidad no tienen porqué ser nocivos, los errores 404 Not Found son páginas no encontradas y pueden provenir de antiguos links a páginas que ya no existen. Es un aliado en los momentos en que se requiere desindexar URLs por problemas de contenido duplicado. Eso si, como hayan URLs que quieras indexadas y den estos errores, tienes un problema de los gordos pues se desindexan rápidamente. Para tener los 404 indeseables cómodamente filtrados tendrás que tener los sitemaps bien implementados.
  • Restricted by robots. No tienen porque ser alertas… si las restricciones las pones tu.
  • Soft 404. No son muy habituales y ha sido el último listado en aparecer. Lee en qué se diferencian.
  • Unreachable. Tampoco tienen porqué ser errores y se pueden producir por links externos con URLs mal formadas. Pero generalmente son errores de perfomance o conexión en el servidor.
crawl errors
Puedes descargar un CSV de un listado concreto y filtrar con el excel los tipos de error y/o tipologías de páginas

Cuando lo abras por primera vez puede que te encuentres con 0 ó 100.000 errores. Si tu caso es el último no trates de arreglar error por error. Tienes que encontrar casuísticas que te permitan encontrar bugs que te solucionen la mayor parte del problema posible. Si no lo puedes ver a simple vista, descárgate el archivo de errores, filtra por cada tipo de página que haya en la web: categoría, categoria + provincia, ficha… ves averiguando dónde hay más errores y filtra por tipo de error:

Miramos los errores de los sitemaps ¿Hay errores de redirección? ¿se comportan de la misma manera? certifica unos pocos. Si las redirecciones son correctas, el único problema que tienes aquí es la actualización o generación de los sitemaps. Si no, algo falla en el sistema. Tus URLs no se validan adecuadamente y se están redirigiendo sin control. ¿Pasa en otras tipologías de páginas?

Repite el proceso con todos los tipos de error y notifícalos por orden de prioridad, que se lo miren los técnicos, ayúdales con ejemplos y trata de entender porqué pasan. Si lo consigues, reconocer los warnings de un vistazo es solo cuestión de experiencia.

Crawl stats

Crawl stats te muestra estadísticas sobre la actividad del crawler. La actividad del crawler tiene que ir en consonancia con el número de páginas de tu web. Los bots tienen que recorrer muchas de esas páginas cada día. Si tu sentido común dice que son pocas las que recorre el crawler, ajusta la velocidad en la opción de Settings y repito, observa que no suba el tiempo de carga de las URLs. Quizá tu servidor no lo soporte.

Controla sobretodo la velocidad del bot, ninguna de tus páginas debería pasar el máximo de un segundo. Una de las cosas que se ha sabido en este SES de London es que Google se ha planteado premiar a las webs más rápidas. Este es un primer indicador para saber si tu servidor está mal configurado, si es poco potente o si hay queries pesadas en la programación. Tienes que concienciar a programadores y técnicos de lo importante que es optimizar.

Si los gráficos hacen cambios bruscos sin que hayas cambiado la velocidad a la que se crawlea tu site, algo pasa con Mary. Trata de averiguar qué.

¿Aquí ha pasado algo o se ha bajado la velocidad de crawleo?

Fetch as Googlebot

¿Quieres saber que ve el crawler al descargar cierta URL? esta es tu opción. Lo preocupante aquí saber qué ve en realidad y no nos muestra.

HTML suggestions

Si trabajas en el sector internet habrás oído hablar del contenido duplicado. Aquí puedes controlar lo que Google considera contenido duplicado interno. Lo considera porque aunque dos URLs tengan contenido diferente, si tienen los mismos meta tags, ¿cómo quieres que sepa cuál debería mostrar en los resultados de búsqueda? Si tienes graves problemas de duplicación solvéntalos.

ojo con los metas duplicados

Igual que en los crawl errors, tienes que ir entrando en los diferentes listados y encontrar patrones que te permitan solucionar varias URLs de golpe.

Un ejemplo común sería las páginas que combinan categorías con provincias y poblaciones. Te puedes encontrar que la mayoría de provincias están duplicadas para cada categoría y eso es debido a que su capital se llama igual. Ante este tipo de problemas imaginación y soluciones:

  • restaurantes chinos en barcelona – para provincia
  • restaurantes chinos en barcelona capital – para población

Labs

Google va probando aquí nuevos desarrollos para olvidarlos o incorporarlos, puedes ayudarte con algunos de ellos.

Author stats

Si te has identificado como autor de alguna página en Google plus, aquí puedes ver las estadísticas de lo que está suponiendo.

Custom search

¿Quieres añadir el buscador en tu página? Lee primero las condiciones!!

Instant preview

¿Tiene problemas Google para maquetar tu página y mostrarla tal y como es en Instant preview? Los maquetadores pueden testear aquí si los cambios son efectivos.

Site performance

Otro indicador de velocidad, pero esta vez de front-end. Esto es sumar al tiempo de descarga del código con el tiempo que tarda en interpretarse en un navegador. Es decir, lo que tarda una página en estar completamente operativa para un usuario.

Si no vas controlando y optimizando la velocidad del site en todos los sentidos podrías perder tráfico o dejar de ganarlo… pero también transaccionabilidad. Lo único que puedes ganar es mayor porcentaje de rebote ante usuarios desesperados.

Para acabar

Quizá se me pase por alto algunos detalles, pero creo que no me dejo nada importante. Si piensas que si, si tienes dudas o quieres preguntar algo comenta el post.

Si has llegado hasta aquí es porque esta guía te ha interesado. Espero que la compartas!! (prefiero los +1 jeje)

7 opiniones en “Guía para principiantes de Google Webmaster Tools”

  1. Gracias por la información, buen artículo, a ver si consigo entender cómo funciona, y así conseguir administrar bien mi web, y ver las paginas que google me ha indexado y los enlaces que tengo.

  2. Tengo contratado el servicio de ALEXA para auditar y medir mi servidor. HAce un tiempo me está diciendo que no lo puede indexar. Alexa pide agregar un script debajo de la etiqueta de apertura de , cuando empezó el problema me pidieron que cree el robots.txt y el sitemap.xml, lo hice pero sigue sin poder indexar. Ante las consultas me dijo que verifique mi servidor porque parece un problema de permisos.
    Que puede ser?
    De antemano muchas gracias.

    1. Hola, a simple vista, sobre medcenter te puedo decir lo siguiente: en la home hay que seleccionar un idioma, pero no utilizas links, utilizas funciones javascript, algo que nunca es recomendable, porque aunque algunos robots si sean capaces de ejecutarlo, en el robots.txt tienes prohibido el acceso a los buscadores a los ficheros de javascript (Disallow: /medscape/javascript/) por lo que, seguramente, no saben qué función hay que ejecutar para continuar… Utiliza links, es como poner autopistas gratis a los robots

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *