Screaming Frog, una herramienta SEO on page

votaraddthis

Una herramienta básica y necesaria para el SEO junto con un mantenimiento general de la web es Screaming Frog. El programa se descarga en nuestro ordenador y emula el trabajo realizado por un bot en su labor de rastrear un sitio web. Esto nos permite conseguir información muy relevante que podrás usar para analizar y mejorar el posicionamiento de tu web. Esta herramienta funciona para Windows, Mac y Linux. Las versión gratuita analiza hasta un tope de 500 url, a partir de ahí la licencia anual cuesta 99 libras. En definitiva, nos proporciona información completa y valiosa acerca de nuestra web con la visión y perspectiva de una araña.

Screaming Frog

¿Qué es Screaming Frog?

Lo primero que tenemos que hacer para entender qué es Screaming Frog es introducir una url y “robotear” una página web. Por ejemplo, introduciré el link de mi blog para que no llegue a los 500 enlaces. El potencial de esta herramienta es enorme: analizar e interpretar depende de nosotros. La aplicación nos ofrece todo lo que nos imaginemos en este ámbito.

Para realizar el “roboteo” de la web, podemos configurarlo con una amplia felixibilidad. No tenemos más que ir a la sección “Configuration” en el menú y seleccionar la opción “Spider”, nos saldrá una ventana como la siguiente.

configuracionScreamingFrog

En función del grado de profundidad para analizar el sitio web podemos seleccionar mayor o menor detalle en el análisis que realice el programa. Es más, incluso dispone la opción “ignorar robot.txt” en caso de que el archivo no permita el rastreo de bots. Cuando ya tengamos configurado esta parte, pulsamos el botón “Aceptar” y volvemos al escritorio del programa. Ahora sólo falta introducir la url que deseamos investigar, dónde está el número 1 en la siguiente imagen, presionamos “Start” y la aplicación hace el resto.

Escritorio de Scraming FrogHaz clic para ver la imagen más grande.

La herramienta rastrea rápidamente la web en cuestión de pocos segundos o minutos, no tarda lo mismo si tiene 100 enlaces que 1000. Por defecto, estamos en la pestaña “Internal” siendo a modo de categoría general con la mayor parte de la información disponible. Dentro de “Internal” existe un submenú con las siguientes pestañas:

  • Address: url del archivo.
  • Content: informa del tipo de archivo: html, imagen, css, js…
  • Status Code: indica la situación de respuesta del address.
  • Status: estado del address.
  • Title 1: releva el metatítulo de la página.
  • Title Length 1: extensión de caracteres del metatítulo de la página.
  • Title 2: en caso de existir, notifica más de un comando para el metatitle, situación que tenemos que solucionar lo antes posible.
  • Meta Description 1: releva la metadescripción de la url.
  • Meta Description Length 1: longitud de los caracteres en la metadescripción de la url.
  • Meta Description 2: al igual que en el metattítulo, nos avisa de duplicidades en la metadescripción para eliminar.
  • Meta Keyword 1: recoge las palabras clave o keywords empleadas en esa address.
  • Meta Keyword Length 1: indica la longitud total de todas las palabras clave.
  • H1-1: muestra el H1 de la página, se recomienda siempre que hay un uno y sólo uno en cada página.
  • H1-len-1: revela la extensión de los caracteres del H1, más de 70 caractares no se muestran en los resultados de búsqueda de Google.
  • H1-2: en caso de existir duplicación de esta etiqueta, quitar lo antes posible para el SEO sólo puede tener un H1 por documento.
  • H2-1: si existe un título H2, se manifiesta. No es obligatorio su uso, depende de la importancia que queramos dar a la página.
  • H2-len-1: indica la extensión en el número de caracteres del H2.
  • H2-2: revela el siguiente H2 de enlace, en caso de existir. Si hay más de uno, no hay problema con el SEO.  No más de dos, si hay tres o más no lo dice.
  • Meta Data 1: recoge las órdenes para los robots, en caso de tener alguna. Aquí entran el nofollow, noindex, noarchive…
  • Meta Refresh 1: indica si existe dicha etiqueta. Se emplea para redireccionar automáticamente al usuario que ha entrado en la página, a otra distinta: El tiempo puede ser desde o segundos (es automático) hasta 5, 15 o 30 segundos. Si se emplea, cuidado para evitar que Google piense que engañamos a los usuarios.
  • Canonical 1: informa si la etiqueta canonical está especificada. Es muy recomendable que cada url tenga una esta directriz para evitar duplicidades. Sobre todo en paginación o si usamos variables de sesión.
  • Size: muestra el tamaño de la página  en bytes.
  • Word Count: recoge el la cantidad de palabras dentro de la etiqueta body, no se cuenta el header. Práctico para detectar cuáles páginas tienen menos contenido y analizar la situación..
  • Level: informa de la cercanía o lejanía con la url que pusiéramos al principio y se mide en los clics que haría un humano para llegar hasta esa página.
  • Inlinks: muestra la cantidad de enlaces internos de la propia web (desde otro sitios no se incluye) que apuntan a dicho elemento. Así veremos cuáles artículos les damos más importancia.
  • Outlinks: inverso al anterior parámetro pero mide los enlaces “externos” que realizamos desde esa página hacia otras páginas dentro del propio sitio rastreado.
  • External Outlinks: mide los enlaces que apuntan a otros sitios webs distintos al analizado por la aplicación, no cuentan enlaces hacia otros sitios dentro de la web. No hay que confundir este parámetro con el anterior.
  • Hash: muestra el identificador de la página denominado hash. Si coinciden dos significa que las página están duplicadas.

Análisis e información con Screaming Frog

Si observamos en la imagen grande de arriba dónde viene el número dos, las pestañas que aparecen a la derecha de “Internal” aparecerán la mayoría de los parámetros mencionados anteriormente: External, URI, Page Titles, Meta Description, Meta Keywords, H1, H2, Images y Directives (éste último indica los rel canonical, rel prev, rel next o robots tag). Si pinchamos en cada pestaña, veremos cada factor en solitario en vez de todos juntos. Lo cuál nos permite entrar en más profundidad en cada parámetro: nos muestra duplicaciones de metaetiquetas o el número que hay de cada clase. La pestaña Custom se configura sólo como una opción extra para la licencia de pago.

La pestaña que nos falta por explicar es “Response Codes”. Esta parte es sumamente importante y útil para nuestro SEO además que facilitará el rastreo de robots y los usuarios accedan correctamente a los links. Se pueden clasificar en los siguientes tipos:

  • No response: la url tarda demasiado en cargar, puede deberse a un error del servidor o que su tiempo de carga sea elevado.
  • Success (2xx): cuando la url funciona correctamente. Ningún problema.
  • Redirection (3xx): cuando hay redireccionamiento temporal (302) o permanente (301).
  • Client Error (4xx): cuando los enlaces fallan y conviene repararlos.  Normalmente, fallan los enlaces externos a otras webs.
  • Server Error (5xx): cuando tenemos errores con nuestro servidor. Tienen prioridad absoluta porque ni las arañas, ni los usuarios, ni nosotros podemos acceder a la página.

El punto 3 de la imagen se observan los datos de cada objeto analizado, no hay nada que comentar sobre su estructura. Lo único que añado que si hacemos clic con el botón derecho sale un menú sumamente útil: desde copiar la url, comprobar la W3C (cumpla con los estándares del html), abrir en el navegador y comprobar los backlinks del enlace con Majestic SEO, Open Site Explorer y Ahrefs mediante un solo clic. Son sus funciones más importantes.

Y, en el punto 4, es otra zona muy práctica: ofrece información más detalla de la url o imagen que estemos tratando. Lo más interesante en esta región son los las pestañas “In Links” y “Out Links” para los enlaces e “Image Info” para las imágenes. Con las dos primeras opciones controlamos los links: desde dónde apuntan a dónde se dirigen pasando por el anchor text. Simplifica mucho la tarea de revisar enlaces rotos. Para las fotos, la parte más importe es la información “alt”: no muestra si está ese campo relleno o no. Y si está vacío seleccionar las palabras más adecuadas para nuestro SEO.

Por si todo esto no fuera poco, Screaming Frog permite generar un sitemap dentro del menú “Advances Export”. Si no disponemos de ningún sistema automático para crear el mapa del sitio, esta es una buena alternativa manual.

Por último, te ofrezco dos trucos más: estudio de competencia y linkbuilding. Estudiando las webs rivales podemos determinar las keywords que emplean para su posicionamiento y así decidir mejor nuestra estrategia con más información y variables para afinar nuestro plan. Con la creación de enlaces, podemos incentivar la interacción con los blogueros y webs que seguimos y más nos interese. Si redactamos un informe con los errores que tiene y cómo solventarlos  junto con un poco de adulación y buenas palabras, podríamos conseguir que nos enlace. Aquí dependerá de nuestro desparpajo y la timidez que acumulemos.

En conclusión

Mi intención inicial era escribir un post más bien corto explicando las bondades de Screaming Frog pero al final he metido la parte de tutorial correspondiente. Uno no puede traicionar a su naturaleza.

Esta herramienta es sencilla de utilizar y ofrece bastante información para el SEO on page, enlaces rotos e, incluso, crear un sitemap del sitio. La clave reside en la práctica y en la experiencia, al igual que en la vida. El dicho “Información es poder” está vigente que nunca. ¿Usáis esta herramienta? ¿Estáis de acuerdo con su pragmatismo y potencia? ¿O preferís otras para analizar una web? ¿O lo complementáis con algo más? Compartir con nosotros vuestras experiencias.