Tendencias de los buscadores: antispam y búsqueda individualizada 1/3

votaraddthis

Los buscadores experimentan continuos cambios mejorando sus algoritmos dando como resultado variaciones de las posiciones en los sitios web. La prioridad para Google es la imposibilidad de que las páginas web o, mejor dicho dicho, las personas realicen trampas para salir mejor en los resultados de lo que les corresponde y sin aportar valor a los internautas.

Contra el Spam

Uno de los principales objetivos es el spam. Combatir contra estos sitios y suprimirlos de sus resultados es una de las tendencias de los buscadores. Las optimizaciones realizadas por Google van en la línea de dificultar que los webmaster manipulen factores para forzar su popularidad. Recordemos algunas de las actualizaciones de Google con los años.

Casandra (2003): se luchó contra sitios con textos o enlaces ocultos.

Dominic y Esmeralda (2003): se persiguió contra links de mala calidad y ocultos.

Florida Update (2003): se remedió el optimizar demasiado, afectó a técnicas que se usaban en aquel momento.

Brandy (2004): la semántica usada fue optimizada para una mejor categorización de las webs rastreadas.

Bourbon (2005): el contenido duplicado y la calidad de los links fueron perfeccionados.

Allegra (2005): se localizó a los sitios de spam para suprimirlos de sus índices y se perfeccionó el método para estimar la calidad en los enlaces.

Vince Update (2009): las grandes marcas obtienen mayor autoridad y popularidad.

Mayday (2010): influyó a las búsquedas relativas a los términos Long Tail así como a los sitios web de comercio electrónico.

Panda Farmer (2011): como su propio nombre indica, arremetió contra las Granjas de Contenidos y sitios de mala calidad.

Panda (2011): se tuvo más en cuenta el comportamiento de los usuarios en las acciones realizadas durante su visita y cómo comparten el contenido. Asimismo, los sitios de mala calidad, contenidos duplicados y copiados fueron castigados al mejorar el funcionamiento del algoritmo en los resultados.

Google Page Layout (2012): el diseño de los sitios web fueron tenidos en cuenta en función de la facilidad para los usuarios y, además, las páginas con demasiada publicidad fueron afectadas negativamente.

Penguin (2012): profundizó en detectar sobreoptimización para el SEO para incrementar artificialmente su resultado en el buscador.

Google transition Rank (2012): el buscador puede modificar temporalmente nuestra posición en las búsquedas si sospecha que manipulamos artificialmente el SEO.

Búsqueda personalizada

Otra de las metas de Google son las búsquedas relevantes para cada usuario individualizando y personalizando. En función de las búsquedas realizadas por cada internauta el buscador lo tiene en cuenta y devuelve links relacionados con la materia vista previamente. Guarda esa información para búsquedas posteriores y así sucesivamente.

Es decir, la primera posición en Google ya no existe al depender de los intereses de cada usuario. Para unos sí aparecerá en primer lugar y para otro no. Esto implica que la medición de resultados cambiará provocando el relacionar tráfico obtenido y conversiones realizadas con los objetivos marcados. No hay que dejar de lado el SEO, pero ahora hay nuevos variables en la ecuación.

La importancia ahora se traslada al usuario. La experiencia que tenga con nuestro sitio es fundamental: fidelizarle y conseguir que nuestra web sea una referencia para él.

Por ejemplo, en este sentido Google realizó su actualización Hummingbird (2013) para indivilualizar las búsquedas: sigue la línea de mejorar la experiencia de usuario y convertir en un futuro a Google en un buscador inteligente. Aprovecha el uso de microdatos para optimizar sus búsquedas.

En el próximo post escribiré sobre la velocidad y búsqueda semántica en los buscadores.