Actualizaciones en el algoritmo de Google: qué son
Desentrañar los secretos del algoritmo de Google es como saber la fórmula de la Coca-Cola y el gran sueño de cualquier agencia seo. Son muy pocos quienes conocen en profundidad sus entresijos. Solo los mayores expertos en SEO son capaces de intuir los constantes cambios entre los millones de líneas de código fuente que, hoy en día, hacen de la Red un sitio más organizado. No obstante, a muchos entendidos no les costará relacionar nombres como Panda con el buscador del gigante de Mountain View. Son grandes actualizaciones de su algoritmo que fueron afianzando los pilares, en los últimos años, del buscador que goza, hoy en día, del privilegio de tener una posición dominante en el mercado mundial.
Precisamente, ese estatus es algo que no agrada a los Gobiernos. De ahí los constantes litigios de la compañía sobre la transparencia de sus procesos. De hecho, Alemania reclamó a Google en 2014, con poco éxito, que desvelase el código de su gallina de los huevos de oro. Lo cierto es que las cifras son aplastantes. Ese mismo año, la tecnológica ingresó 15.000 millones de dólares solo de su plataforma de anuncios. No obstante, el impacto que tiene sobre la población mundial es mucho mayor. En España, un informe de Deloitte de 2015 cuantifica en 7.000 millones de euros la huella de esta empresa durante todo el año anterior, con repercusión directa o indirecta sobre 130.000 empleos.
Pero ¿qué es ese código y de qué manera influye tan directamente en el día a día de las personas? El conocido como PageRank fue registrado como marca el 9 de enero de 1999 por Google. Ampara una serie de algoritmos cuya tarea principal es la de filtrar entre los millones de páginas web que se indexan a diario en el buscador y se encarga de establecer un orden de relevancia. Con el tiempo, a este se fueron sumando millones de líneas de código fuente con otros algoritmos cada vez más complejos. A todos ellos se debe la posición de uno u otro sitio en las SERPs o páginas de resultados que devuelve el gigante al realizar una búsqueda.
De este modo, una web que ofrece contenidos periódicos de calidad y cumple a rajatabla con las directrices de Google será bendecida con los puestos más altos de las SERPs. Mientras que aquellas de escaso prestigio que utilicen texto duplicado, por ejemplo, se verán relegadas a las últimas posiciones.
¿Qué son las penalizaciones y qué conllevan para el SEO?
En términos de SEO, el algoritmo y sus constantes cambios son el gran dolor de cabeza de quienes trabajan en el posicionamiento orgánico de páginas web. El incumplimiento de las reglas establecidas puede suponer penalizaciones importantes. No obstante, al desconocerse el código fuente en profundidad, también son una incógnita los requisitos últimos que se aplican en la ordenación de las páginas de resultados del buscador. Google únicamente ofrece una serie de pistas sobre qué es lo que quiere y cuáles son las conductas a evitar. No obstante, la información sobre actualizaciones y requisitos no llega a tiempo o son los propios expertos quienes se aventuran a predecir los movimientos de la compañía en una u otra dirección, a base de analizar los ránquines.
Existen diferentes tipos de penalizaciones que inciden sobre una determinada página web. Se puede dar el caso de que haga saltar algún tipo de alerta o alguien envíe a la compañía un informe de spam. En este caso, un técnico revisa el contenido del sitio y, si es procedente, aplicará una sanción. La otra alternativa se da de manera automática. El propio algoritmo, que ha detectado un error o incumplimiento en la página, aplica una penalización predefinida en función de la gravedad de la falta.
Una reducción drástica del tráfico orgánico procedente de Google en las analíticas o la desaparición de algunos enlaces de los resultados de búsqueda pueden ser síntomas de haber sido sancionado. Esto se puede deber a múltiples factores, como la compra y venta de enlaces o recarga del sitio con un exceso de palabras clave. Incluso, la copia de textos de otras webs y tratar de engañar al buscador con elementos ocultos, mientras se muestran contenidos totalmente diferentes al usuario final, son factores altamente penalizables. Los algoritmos están repletos de instrucciones de este tipo y los robots analizan exhaustivamente cada página indexada a la caza de infracciones.
El buen encargado de realizar el posicionamiento orgánico debe ser capaz de detectar estas anomalías en el momento exacto en el que se producen, para poder subsanarlas a tiempo. El descuido en las tareas de SEO de una página puede suponer una importante pérdida respecto a los competidores. De hecho, conviene estar al tanto de los anuncios, tanto oficiales como realizados por especialistas en la materia, en lo referente a actualizaciones del algoritmo. De este modo, se puede comprobar en qué medida puede una página verse afectada y se adaptará a las nuevas directrices.
De Boston a Venecia: más de treintaycinco millones de cambios
Según datos oficiosos de junio de 2016, la compañía de Mountain View realiza unos 40.000 cambios al día (más de la mitad, efectuados de manera automática). De hecho, solo en 2014 se contabilizaron alteraciones en 15 millones de líneas de código. Desde sus inicios, son más de treintaycinco millones los cambios realizados en el algoritmo.
A fecha de enero de 2015, Google empleaba nada menos que 86 Tb en el almacenamiento de 1.000 millones de archivos. De los cuales, 9 millones eran exclusivos de código fuente, que recogían hasta dos mil millones de líneas de programación. Esto ofrece una idea clara de la trascendencia de este sistema.
Dentro del hermetismo que caracteriza a la empresa californiana desde sus comienzos, hay casos de gran importancia en los que la compañía anuncia las actualizaciones más decisivas de su algoritmo. Especialmente, cuando arrastran grandes cambios que podrían incidir, en gran medida, sobre las webs presentes en el buscador.
Para ello, Google tiene a su disposición una legión de animales y lugares que dan nombre a cada una de sus renovaciones. Partiendo de Boston, ciudad donde fue presentada esta versión en 2003, hasta utilizar nombres como Florida (2003), Austin (2004) o Venecia (2012). En su haber, se encuentra un auténtico zoo, con especies tan variopintas como el Colibri (2013), Pigeon o Paloma (2014), Panda (2011-2015), Penguin (2012-2016) y Owl o Búho (2017).
A esto hay que añadir nombres de personas y demás actualizaciones menores que no llegaron a recibir un apodo. No obstante, los cambios más decisivos en los algoritmos del buscador se resumen en unas cuantas versiones. Muchas de ellas todavía se conservan y tienen tareas muy dispares en la intrincada arquitectura desarrollada por la tecnológica americana.
Penguin (septiembre de 2016)
Existen revisiones más recientes del algoritmo que afectan, entre otras cosas, a nuevas tecnologías como la implantación del sistema AMP, que favorece a aquellas páginas más optimizadas para su visualización en soportes móviles. Pero Penguin (Pingüino) es la revisión reciente de más relevancia. Se desarrollaron varias versiones, desde su lanzamiento, el 24 de abril de 2012, hasta septiembre de 2016. Su objetivo es el de luchar contra el webspam. Nació para penalizar las malas prácticas del linkbuilding, es decir, la creación de enlaces de baja calidad y sin relación con el contenido indexado.
Su lanzamiento llegó a afectar a entre un 3 y 5 % de las consultas, ya que se instauró para atajar un problema bastante común en la navegación web. Su última versión es capaz de actualizarse en tiempo real. Por eso, ha sido acogida como la definitiva del Pingüino.
Panda (julio de 2015)
La más relevante de las modificaciones del código fuente del buscador en su Historia es la conocida como Panda. Fue lanzada el 24 de febrero de 2011 y se desarrolló un total de 38 actualizaciones, hasta lograr la versión más estable. Se le conoce como el algoritmo de la piratería, pues supuso el mayor salto de Google hacia los sitios de calidad, premiando contenidos originales y apropiados frente a la copia, al fraude y al plagio. Una práctica habitual, hasta su llegada, para llenar de texto millones de webs que ahora se consideran de baja calidad y caen drásticamente en las SERPs o, simplemente, desaparecen de los directorios.
Su incidencia fue realmente impactante: cerca del 12 % de las búsquedas en inglés se vio afectado por la salida de Panda. Poco después, en agosto de 2011, se implantó también en español, con un impacto de entre el 6 y 9 %. Las sucesivas actualizaciones del oso siguieron segando páginas en los resultados de búsqueda, aunque la compañía es reacia a aclarar si se debía a un endurecimiento de las directrices. Los expertos detectan fluctuaciones del 1 o 2 % en algunas reescrituras del código antipiratería, por lo que se sospecha que se fue puliendo, poco a poco, la lucha contra el fraude.
Venice (febrero de 2012)
La compañía llevaba tiempo trabajando en la localización de las páginas que indexa. La llegada de Venice supuso un revulsivo para la regionalización de los resultados devueltos por Google. Antes de esta actualización, era necesario teclear el nombre del lugar junto a los criterios de búsqueda.
A partir del desembarco de la versión veneciana, cualquiera puede teclear un texto genérico en su navegador y el motor le devolverá un listado de páginas ubicadas en la misma localidad del usuario en las primeras posiciones. Esto supuso una auténtica revolución al permitir al pequeño comerciante de barrio competir con grandes empresas de su sector por factores de proximidad.
Colibri (septiembre de 2013)
Otro de los añadidos de código que dieron un giro histórico al buscador fue bautizado con el nombre inglés de Hummingbird. Traducido como Colibri, su gran virtud está más orientada al orden semántico. Su implementación daba al usuario la posibilidad de realizar peticiones más complejas.
En este sentido, tuvo una especial incidencia el desarrollo de la tecnología móvil y manera de relacionarse del usuario con sus dispositivos, cada vez más elaborada. El Colibrí permitió hacer preguntas más intrincadas desde el punto de vista de una conversación real, como “¿qué tiempo va a hacer mañana en…?”. Por primera vez, se incluía el lenguaje coloquial entre los comandos que podía entender el buscador, así como frases más largas y complejas de lo que se venía empleando hasta entonces para obtener los resultados deseados de una manera más natural.
Vince (febrero de 2009)
La aparición de Vince, en 2009, estuvo muy rodeada de controversia entre la comunidad de internautas. Lo que se entendió como un movimiento de Google para potenciar a las grandes marcas por encima de las demás hizo salir, públicamente, a sus responsables para explicar de qué se trataba esta actualización.
En realidad, se sentaban las bases de lo que ahora se conoce como SEO y se trataba de dar impulso a esta figura. El algoritmo daba prioridad a las páginas en función de su reputación y autoridad. Premiaba, por tanto, a aquellos webmasters que habían realizado un buen trabajo de posicionamiento orgánico y gozaban del crédito de los usuarios.
A lo largo de los años de desarrollo del buscador de Google, se contabilizó una gran cantidad de cambios. Algunos trataban, simplemente, de implementar mejoras técnicas en los motores, como Caffeine (2009), que ayudó a acelerar considerablemente el rastreo que realizan las arañas (o spyders) para localizar cualquier modificación en las páginas indexadas. Otras actualizaciones, en cambio, potenciaron nuevas facetas del buscador. Es el caso de Panda contra la piratería. Pero también se dan en versiones como la aparecida en enero de 2017, para penalizar el abuso de intersticiales, esas incómodas ventanas que se muestran previamente a la carga de la página y, en muchos casos, contienen publicidad. O en las versiones más recientes en desarrollo, como Fred y Owl (Búho), que penalizan la implementación de fórmulas mágicas para el SEO, en aras de mejorar la calidad y originalidad de los contenidos, en el primer caso; y persiguen refinar las búsquedas y desproveerlas de resultados que se pudieran considerar bulos, en el segundo. Esto último responde a la tendencia generalizada de difundir noticias falsas en la Red. Algo a lo que ahora Google trata de poner coto dotando a sus motores de las herramientas necesarias para detectarlo.
Contenido Relacionado


