Internet no sería lo que es hoy sin Google. Pero el potente buscador tampoco fue siempre lo mismo. Bajo esa apariencia sobria y permanente se esconde su verdadero potencial, que son los algoritmos de Google. Estos sirven para buscar en la red y mostrarnos aquello más relacionado con lo que buscábamos, dentro de un posicionamiento web lo más lógico posible.
Los algoritmos de Google. Los primeros pasos
El primero de los algoritmos fue PageRank. Los ingenieros informáticos de Stanford, y fundadores de Google, Larry Page y Sergey Brin, lo desarrollaron a finales de los años 90 y su objetivo era poder averiguar la importancia de una web mediante los links que recibía en otras páginas.
Florida, el primer gran cambio en 2003
Con Florida se quería penalizar a aquellas páginas que caían en el spam y que abusaban del uso de palabras clave. De este modo, casi de la noche a la mañana, muchas páginas se vieron relegadas al ostracismo. La evolución del SEO había empezado en serio y era necesario adaptarse o morir.
Llega Austin en 2004 para penalizar los enlaces falsos
Otro recurso habitual para ganar en relevancia era usar todo tipo de enlaces, aunque no tuvieran demasiado que ver con nuestro contenido. Para evitarlo y castigarlo severamente, se creó Austin en el año 2004. A partir de entonces, para que nos enlazaran más nos valía tener información de calidad y no poseer links ‘mentirosos’.
Universal Search y los cambios en el SEO
En mayo de 2007 se lanzó el algoritmo Universal Search. Con él se pretendía que las arañas y motores de Google encontraran no solo textos, sino imágenes, vídeos, gráficos y todo aquello que pudiera estar en la red y fuera susceptible de ser indexado y ordenado.
Google suggest y su importancia en las tendencias SEO
Otro aspecto innovador en los algoritmos fue la llegada de Google Suggest en agosto de 2008. De lo que se trataba era ofrecer alternativas a la búsqueda principal para enriquecer los resultados y dar más opciones. De hecho, esto aún aparece en la parte inferior de cada búsqueda.
Caffeine. Multiplica la rapidez de las búsquedas
Con Caffeine, en agosto de 2009, las arañas se volvieron tan potentes que los resultados eran ya, prácticamente, en tiempo real. Aunque cobran aquí más relevancia las páginas que se actualizan constantemente, que se enriquecen con contenidos nuevos y que no caen en plagios.
Panda. Un nuevo salto a los contenidos de calidad
Google, en su lucha por evitar el spam y los abusos de ciertas páginas desarrolló Panda en 2011, que ha tenido luego varias actualizaciones como la de 2016. Con él lo que prima es un buen contenido, de calidad, bien redactado, sin redundancias y sin abusar de palabras clave, que se llaman stuffing.
Venice, Penguin y Knowledge Graph
El año 2012 fue muy prolífico en algoritmos Google. El primero en llegar fue Venice, que se basaba en la geolocalización, lo cual ha sido de gran ayuda para las empresas locales. Aunque ya en 2014 se crearía Pigueon para perfeccionarlo. En abril de 2012 se puso en marcha Penguin, para luchar contra la compra masiva de enlaces y priorizar los naturales y de calidad. Y en mayo, Knowledge Graph, centrado en las búsquedas relacionadas.
Google Hummingbird. Búsquedas certeras
El colibrí de Google, creado en 2013, se centra en frases complejas y aquí cobran importancia las palabras clave long tail. Y en la información relacionada con tu búsqueda.
Phantom, la calidad general de la página
Google dio un nuevo paso en 2015 con Phantom. Este potente algoritmo analiza toda tu página para determinar si es de calidad o no. Aquí entra en juego el diseño, el contenido, las interacciones de los usuarios, los errores de código y mucho más.