El posicionamiento Web después de Panda 4.0

Cómo afecta la actualización de Panda al posicionamiento Web

Que tu Web no le tenga miedo al Panda

Desde que hace algunas semanas Google anunciara una nueva actualización de su algoritmo de búsqueda Panda, muchos de los profesionales del SEO y propietarios de páginas Web se echaron a temblar. Pero Google hace una media de 500 actualizaciones de algoritmo cada año. Unas veces estas actualizaciones son pequeños retoques sin importancia y otras veces, como parece ser esta, son cambios que prevén cambios en los SERP’s (Search Engine Results Pages o Search Engine Ranking Positions, en castellano, página de resultados en un motor de búsqueda) y que, por tanto, afectan al trabajo de posicionamiento SEO realizado hasta esa fecha.

Actualización:

El algoritmo Panda fue lanzado por Google en 2011 como respuesta a la proliferación de sitios web con contenido de baja calidad. El buscador registró un gran aumento de nuevos dominios web. Muchos de ellos, lejos de contener contenido original y de valor, eran usados para albergar contenidos de muy baja calidad, catalogados casi como spam. Es decir, sitios con gran cantidad de información y cuyo único objetivo era atraer al usuario a las páginas a través del posicionamiento en buscadores. Esto acababa creando una mala experiencia al usuario, por lo que Google se planteó atajar el problema con el nuevo algoritmo, que tenía como objetivo eliminar de los primeros puestos del buscador las páginas que no ofrecían contenidos de calidad.

Este algoritmo ha ido evolucionando con varias actualizaciones hasta la versión que conocemos ahora.

 

Cómo afecta la nueva actualización Panda 4.0

Esta nueva actualización del Panda, la 4.0 prometía ser más dura con las técnicas de posicionamiento Web black hat, es decir, las poco transparentes, pero no sólo eso. La actualización de Panda venía para reordenar la relevancia de las Webs en los SERPS, y no todos iban a salir bien parados.

En la práctica, la implantación de Panda ha supuesto una apuesta por el contenido, por un valor más social del mismo y por una orientación hacia la calidad, en lugar de hacia la cantidad. Uno de los factores que ya había anunciado Google es que se verá afectado el posicionamiento Web de las páginas que tengan un exceso de publicidad. Por eso, no es de extrañar que todas esas páginas en las que al entrar sólo ves anuncios y debes hacer scroll para llegar hasta el contenido, vayan perdiendo sus posiciones de los primeros puestos en los resultados de búsqueda.

Calidad de contenidos para el posicionamiento Web

Asimismo, Google también persigue a aquellas páginas Web cuyos contenidos sean de baja calidad y puedan provocar una mala experiencia de uso. En contraposición a éstas, se ensalza la relevancia de las Webs con contenido único y de valor para el usuario. Es decir, contenido especializado, con variedad de formulaciones en torno a una temática concreta.

Las Webs semánticas

También encaminado hacia este sentido se justificó el lanzamiento del algoritmo de Google Hummingbird, Colibrí en castellano. Con él, el buscador trataba de acercarse más a las consultas efectuadas por un humano, desde un punto de vista más semántico, entendiendo el significado de las palabras y siendo capaz de procesar consultas más complejas para ofrecer resultados de búsqueda más acordes a la consulta real del usuario.

En conclusión, todos los cambios que aplica Google en sus algoritmos tienen dos razones de ser, mejorar la experiencia de uso de las personas en relación a las páginas Web que visitan a través del buscador y, por otro, perseguir las malas prácticas que alteran el posicionamiento en beneficio de páginas cuyos contenidos son pobres o poco relacionados con la consulta realizada.

 

¿Quieres saber si tu Web ha sido afectado por el Panda? Haz clic aquí para contactarnos y diagnosticaremos tu sitio Web.

 

 

 

Comments are closed.