Penalizaciones de Google: Caso práctico

Para cerrar este ciclo de artículos sobre penalizaciones de Google, tras aprender  de qué se tratan y ha salir de ellas mediante los artículos; “¿Qué es una penalización de Google?” y “Salir de una penalización de Google” vamos a hablar de un caso práctico real ocurrido durante los años 2014 y 2015. Se trata de una web que contaba con alrededor de 10.000 visitas mensuales y 15.000 páginas vistas, de las cuales más del 80% provenían de tráfico orgánico de Google, ya que el SEO estaba muy trabajado en todo el sitio web.A continuación vemos la gráfica de accesos web, donde se ve claramente el bajón producido en junio del año 2014, que no se empieza a recuperar hasta Mayo del 2015 y que hasta Octubre de 2015 no queda completamente restablecido.

Gráfica de cantidad de sesiones de analytics

Lo primero que se hizo una vez descubierto el “bajón” de visitas fue comprobar que dicha bajada se había producido en el tráfico orgánico de la web.

Búsquedas orgánicas en google

Así que ya empezaba a olerse la penalización, pero aún se hicieron un par de pruebas más para descartar otras opciones.

La primera, fue realizar búsquedas en Google para los keywords que habitualmente ocupaban las primeras posiciones en los SERPs. La sorpresa vino cuando al realizar dichas búsquedas, la página seguía apareciendo en sus posiciones originales, pero en vez de salir las diversas landing pages para cada keyword, salía el dominio raíz en todas las ocasiones. Es decir, el sitio web aparecía desindexado, la única página indexada era el home o “la raíz”, pero las posiciones para las keywords se mantenían. Curioso.

La última prueba, fue acudir al webmaster tools de Google y advertir que efectivamente, el 90% de las páginas habían sido desindexadas. No obstante no había ninguna penalización manual, y el robots.txt y el sitemap.xml parecía estar bien, al igual que el .htaccess. Por lo tanto, alguno de los dos algoritmos de Google era el causante. Tocaba averiguar cuál.

Webmaster Tools de Google

Utilizando la herramienta “Panguin Tool” y superponiendo las fechas de actualización de los algoritmos de Google a las analíticas web propias, se esclareció rápidamente el misterio: El Panda había estado jugando con nuestra web. En la siguiente gráfica, las pruebas de ello.

Panguin de Google

Así que sabiendo que el causante de la penalización era la actualización del 19 de Mayo de 2014 de Google Panda, fuimos a Moz.com a ver qué cambios se habían producido en el mismo, y tampoco dejamos de atender a los cambios producidos en días anteriores, por si acaso.

El Panda de google

Bien, una vez terminada la fase de análisis y detección, tocaba pasar a la acción y arreglar el desaguisado. Hay que señalar que un mes antes de la penalización, la web del presente estudio había sufrido una serie de cambios fuertes a nivel de diseño, ya que había sido adaptada para tener un diseño líquido adaptable a todo tipo de pantallas, y el lenguaje utilizado había pasado de ser XHTML 1.0 a HTML5. Por lo tanto había infinidad de cosas que podían haber fallado.

Lo primero que se hizo fue revisar la publicidad y optimizarla, reduciendo el número de anuncios. También se revisaron enlaces entrantes y anchor texts, y se realizaron una serie de optimizaciones de código, sobretodo en las cabeceras (<header>), así como en la forma de carga de los javascripts y css.

Ya de paso, se aprovechó para optimizar el blog, actualizándolo a la última versión de wordpress con todos los plugins al día y el theme a la última. La velocidad de carga de página también fue un punto a cuidar, utilizando para ello la herramienta de Google, page speed y siguiendo sus recomendaciones. Además se revisó minuciosamente cada trozo de código mediante herramientas de validación del w3c, para evitar cualquier tipo de error.

Como medida adicional se decidió cambiar de hosting, a uno de mayor calidad y que además ofrecía una IP local que mejoraría el posicionamiento web. Y por último, se se realizaron los últimos trabajos con el webmaster tools de Google. Se volvió a mandar indexar todo el sitio, actualizando los sitemaps. El robots.txt fue optimizado y se incluyeron metadatos de microformato y autoría.

Aquí finaliza la serie de artículos sobre penalizaciones de Google, esperamos hayan sido de utildad.

Posted in SEO

Utzi erantzuna

Zure e-posta helbidea ez da argitaratuko. Beharrezko eremuak * markatuta daude