Desde hace unos cuantos años atrás, Google cuenta con un algoritmo que fue diseñado con el objetivo de combatir el spam y castigar a algunos sitios web por el uso de técnicas indebidas para mejorar su posicionamiento.

En tiempos modernos posicionar una web con trafico orgánico es un verdadero y arduo trabajo en el que dedicar mucho tiempo.

Sabemos que posicionarte hoy en día, aunque sea una tarea de resultados no muy inmediatos, si lo era de esa manera en el pasado.

Y es que antiguamente muchos SEO utilizaban estrategias que no eran del todo correctas o confiables para posicionar, pero si funcionaban.

Tanto fue así que todo mundo empezó a abusar de ello y luego entre los primeros resultados de búsqueda en Google podían aparecer cualquier tipo de sitios, aunque fueran posicionados con técnicas SEO Blackhat.

Hoy te quiero presentar al señor que logró que todo esto mejorara y el juego fuera más limpio, quiero presentarte a Google Penguin.

El 24 de abril de 2012, Google lanzó una nueva actualización del algoritmo que, en palabras simples, ayuda al buscador a establecer el ranking de los sitios web.

El algoritmo, cuyo nombre es Penguin, llegó para cambiar la forma en que se hace SEO de manera tradicional.

Con esto, Google pretende acabar con las malas prácticas y, sobre todo, con los tramposos que se aprovechan de ciertos artilugios para posicionar sus páginas web en altas posiciones dentro de los buscadores.

Google Penguin se refiere a un conjunto de actualizaciones de algoritmos y actualizaciones de datos para el motor de búsqueda de Google.

Básicamente con esto se busca principalmente evitar que varios tipos de spam de motores de búsqueda (también conocidos como spamdexing o Black Hat SEO) sean recompensados ​​con éxito.

El spam de los motores de búsqueda puede incluir actividades como:

1.- Relleno de palabras clave

2.- Spam con enlaces

3.- Uso de texto invisible en páginas web

4.- Duplicación de contenido protegido por derechos de autor. Entre otros.

¿Con qué frecuencia se implementan las actualizaciones de Google Penguin?

Google lanzó la primera actualización de Penguin en abril de 2012, y la compañía de búsqueda estimó que afectaba al 3% de todos los sitios web en inglés.

Google no siempre anuncia cambios para Penguin.

Pero ha habido al menos cinco actualizaciones de Google Penguin, incluida una actualización importante, Penguin 2.0, en mayo de 2013 y la más reciente, Penguin 2.1, más tarde ese año en octubre.

¿Cuál era el objetivo de la actualización de Penguin?

La actualización de Penguin está dirigida principalmente contra el spam web con el objetivo de optimizar los resultados de búsqueda para los usuarios.

Esto se logró con un contenido de mayor calidad que mejoró el rendimiento técnico del sitio web.

¿En qué fecha fueron las actualizaciones de Penguin?

La primera actualización de Google Penguin se lanzó el 24 de abril de 2012. También se conoce como Penguin 1.0. Dos actualizaciones de datos tuvieron lugar a fines de ese año.

Aquí no se actualizó el algoritmo en sí, sino solo la base de datos requerida para ello.

El 22 de mayo de 2013 tuvo lugar la segunda actualización de Penguin en Penguin 2.0. Casi cuatro meses después, Google volvió a realizar otra actualización de datos.

El 17 de octubre de 2014, Google comenzó la actualización Penguin 3.0. Hasta entonces, todas las actualizaciones se ejecutaron manualmente.

Con la experiencia de la actualización de Penguin 4.0 en el otoño de 2016, la actualización se convirtió en parte del llamado algoritmo central de Google.

Desde entonces, se han realizado ajustes adicionales de Penguin continuamente, al igual que las modificaciones a la actualización de Panda, y ya no son manuales.

¿Cuáles son las consecuencias del algoritmo para los Webmasters?

Los sitios web que no se adhieren a las pautas establecidas desde Google se ven afectados por la actualización de Penguin.

En las versiones anteriores, la actualización de Google Penguin devaluaba todo el dominio si se identificaba el “spam web”.

Esta penalización del sitio podría conducir a la exclusión del índice.

Hoy en día el filtro Penguin funciona sobre una base de URL, si el filtro se encuentra con el “spam web”, esto puede conducir a una pérdida de clasificación para subpáginas individuales.

Sin embargo, con la introducción de las actualizaciones continuas, siempre existe la posibilidad de que el castigo aplicado a los sitios web afectados se levante más rápidamente.

Cuando las actualizaciones todavía se realizaban manualmente, era significativamente más difícil liberarse de la penalización, lo que a menudo llevaba a esperar hasta la siguiente actualización de Penguin.

La actualización de Penguin tuvo consecuencias de largo alcance para el mundo del SEO.

Si una gran parte del trabajo de los SEO antes de ese momento ya era activa, la construcción de enlaces se ha vuelto más difícil.

Ahora se están haciendo más intentos para usar contenido de alta calidad para aumentar los enlaces a su propio sitio web.

Al mismo tiempo, se están utilizando otros canales de Marketing, como las redes sociales, para aumentar el alcance del sitio web.

¿Contra qué forma de spam web lucha Penguin?

Según las «pautas de calidad» de Google, el “spam web” existe en muchas formas diferentes.

1- Enlaces no naturales: Estos vínculos de pueden generarse mediante la compra o el alquiler de enlaces en “granjas” de enlaces.

2.- Enlace artificial: Si los enlaces de las Keywords se establecen principalmente en un sitio web, sin contenido relevante, este lo tomará de “spam web”.

3.- Crecimiento rápido de enlaces: Si un sitio web recibe muchos enlaces entrantes rápidamente, Google puede marcarlo como spam web.

Entre Panda y Penguin.

Las dos actualizaciones centrales de Google dirigidas contra el spam web se han convertido en parte del algoritmo central.

Tanto los Webmasters como los SEO apenas pueden determinar qué elemento se acaba de actualizar.

Ya no vale la pena que confíen en técnicas que funcionaron incluso hace unos años.

Google ha utilizado correctamente Penguin y Panda.

Para llegar a un punto en el que los sitios web se deban preocupar más por los intereses de los usuarios y que la optimización ya no se realice únicamente para los motores de búsqueda.

Los operadores de sitios web ahora están más motivados que nunca para crear contenido de alta calidad y sitios web técnicamente perfectos.

Si tienes más dudas sobre los algoritmos de Google y como sacarle provecho para tu empresa, comunícate con algún miembro de nuestro equipo.

Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *