Análisis de logs:
palanca para optimizar tu SEO
Pilar del SEO técnico, el análisis de logs es una valiosa fuente de información que hay que explotar para optimizar tu posicionamiento orgánico.
¿Cómo funciona?
¿Qué es el análisis de logs
en SEO?
¿Cómo ven los robots tu web?
Para llevar el SEO al máximo nivel, es fundamental saber cómo interactúan los robots de los motores de búsqueda con tu portal web, es decir, lo que ven durante su rastreo (crawl). Este rastreo de páginas se hace en función de varios criterios (velocidad de respuesta del servidor, profundidad de las URL, frecuencia de las actualizaciones, etc.) y no es raro encontrar diferencias entre lo que un motor sabe de tu portal y las páginas que aparecen en línea y generan tráfico. Por desgracia, las herramientas clásicas (Search Console, Google Analytics, software de rastreo SEO) solo proporcionan una respuesta incompleta. La única manera de determinar exactamente lo que ven los robots es explorar los archivos de registro del servidor. De ahí, que el «análisis de logs» en SEO, sea un aspecto fundamental de la parte técnica del posicionamiento SEO.
Análisis de logs: palanca determinante del SEO técnico
El «log» hace referencia a un archivo alojado en el servidor del portal web. Es una especie de «log» que registra todos los eventos que tienen lugar en este servidor (las «llamadas» o «hits»). En cuanto una entidad (internauta o robot) intenta acceder a los recursos del portal, se escribe una nueva línea en el archivo de registro. Así, en SEO, el análisis de logs es la operación que consiste en exportar información de este archivo para estudiarla y sacar conclusiones que ayuden a la optimización de la página. Este enfoque ofrece una visión global del rendimiento del portal, su influencia en los robots, sus errores técnicos, su red de enlaces, etc. Y, lo que es más importante, estos datos son los únicos fiables al 100%, ayudando a comprender mejor lo que ocurre cuando los robots rastrean el portal y, en última instancia, a actuar sobre las palancas pertinentes para mejorar continuamente el SEO.
¿Qué información se consigue con ayuda del análisis de logs?
-
Fecha y hora de la búsqueda (“timestamp”)
-
Tipo de búsqueda
-
User-agent detrás de la consulta
-
URL visitada
poids, temps de réponse, codes de statut de réponse HTTP (200, 301, 404, 500), etc.
-
URL de procedencia (“referrer”)
-
Detalles sobre las páginas
Peso, tiempo de carga, códigos de estado de respuesta HTTP (200, 301, 404, 500), etc.
-
Información sobre el usuario
Dirección IP, motor de búsqueda utilizado, sistema de explotación…
Dos tipos de crawl
(complementarios entre sí)
En materia de rastreo, hay que distinguir dos enfoques: el de los robots de los motores de búsqueda y el de las herramientas de crawl utilizadas por los especialistas en SEO. Como estos dos enfoques son complementarios, es importante combinar los datos para obtener un resultado óptimo.
-
Crawl de los robots
Los robots de los motores de búsqueda rastrean las páginas de un portal web siguiendo los enlaces encontrados durante la exploración (red de enlaces internos y enlaces entrantes) y según las instrucciones que se les dan (a través del archivo sitemap XML y de los archivos robots.txt). También identifican las páginas que antes estaban indexadas, pero que ya no son accesibles, así como las páginas exploradas por los internautas y que no están vinculadas al portal. Este rastreo es el que se estudia gracias al análisis de logs.
-
Crawl con software SEO
Las herramientas de rastreo SEO pueden analizar todas las páginas de un portal web, pero solo si están enlazadas entre sí (mediante enlaces internos). Esto ofrece una visión más restringida en la que los robots de los motores pueden ver las páginas que no están enlazadas con el resto del portal, denominadas «huérfanas». Los datos de este tipo de rastreo son muy interesantes, pero no tan precisos como en el análisis de logs.
Es bueno saberlo
El análisis de logs se reserva a los portales de gran tamaño: en general, hablamos de, al menos, 1.000 páginas (aunque es posible utilizar este enfoque para portales con menos páginas). En cualquier caso, cuanto mayor es un portal, mayor es el riesgo de encontrar problemas de crawl, lo que hace que el estudio de los logs sea aún más determinante.
¿Por qué hacer un análisis de logs en SEO?
¿Para qué analizar
los logs?
Gracias al análisis de logs, es posible reconstruir con precisión el recorrido realizado por los robots en un portal web. ¿El objetivo? Visualizar el crawl con absoluta precisión y con una fiabilidad indiscutible, comprender cómo exploran el portal los robots, qué páginas se visitan o no (y por qué no), identificar los puntos de bloqueo y las correcciones que hay que realizar para posicionar mejor tus páginas, etc. En resumen, este trabajo de análisis te ayuda a responder a una pregunta clave: “¿El motor de búsqueda tiene la misma visión de mi portal web que yo?” Se trata de que estas dos visiones, la del motor y la tuya, sean lo más parecidas posible.
¿Para qué sirve el análisis de logs?
-
Supervisar el crawl de los robots
El análisis de logs permite sacar a la luz información fundamental sobre el rastreo, en particular la forma en que el Crawl Budget de cada motor es gastado por los robots en tu portal. ¿Qué páginas consideran importantes los motores? ¿Coinciden con tus páginas estratégicas? ¿Cuáles son las posibles áreas en las que se desperdicia el Crawl Budget? Básicamente, podemos seguir con precisión el proceso de crawl de los robots.
-
Comprender lo que ven
los robotsEl estudio de logs te pone en la piel de los robots y te da una idea de lo que ven cuando rastrean tu portal web. Esto ayuda a descubrir información crucial: lagunas en el rastreo, páginas indexadas cuando no están vinculadas al portal por la red de enlaces internos, errores en los códigos de respuesta de las URL, tiempos de carga demasiado largos, tipos de archivos rastreados, relevancia de la versión para dispositivos móviles, etc.
-
Realizar una auditoría SEO
técnico completoToda auditoría SEO técnica debe incluir un análisis de logs. Es una etapa necesaria para identificar los indicadores que deben optimizarse. Sin embargo, un análisis de este tipo requiere competencias muy específicas, en particular para extraer los datos del archivo de registro, interpretarlos y cruzarlos con otra información SEO. Solo los expertos en SEO pueden sacar el máximo partido de este recurso.
-
Eliminar los puntos negativos en posicionamiento orgánico
El análisis de logs es una parte fundamental del SEO. El objetivo es comprender qué impide el correcto posicionamiento web de las páginas e incluso identificar las causas de una caída repentina en las SERP. Esto permite aplicar acciones concretas para hacer más fluido el paso de los robots, por ejemplo, corrigiendo errores en los códigos de respuesta, detectando «trampas para robots» o mejorando el tiempo de carga de las páginas.
-
Aumentar y mejorar
las prácticas SEOPor último, el interés del análisis de logs reside en la exactitud y fiabilidad de la información obtenida. Esta información adopta la forma de indicadores numéricos, que evidencian las dificultades encontradas en el portal y la necesidad ciertas correcciones. Por consiguiente, el resultado de este análisis permite priorizar las palancas de optimización, pero también obtener el consentimiento de la jerarquía mostrando, de forma concreta, cuáles son los problemas y cómo resolverlos.
¿Cuándo realizar un análisis de logs?
Un análisis centrado en los logs puede realizarse en cualquier momento de la vida útil del portal web si tiene un volumen elevado (más de 10.000 páginas), por ejemplo, en el contexto de una auditoría SEO técnica o de un análisis mensual. Para los portales más pequeños (de 1.000 a 10.000 páginas), este enfoque es especialmente útil en varios casos: durante un rediseño o una migración, cuando se añade un gran número de URL nuevas, si se observan cambios en el posicionamiento SEO de las páginas, etc. Por último, el análisis de logs está especialmente adaptado a los portales de e-commerce, que suelen incluir un gran número de páginas importantes (sobre todo fichas de productos) y a los portales de actualidad, para los que es fundamental conocer con precisión la frecuencia de rastreo (ya que se pretende que los motores de búsqueda indexen los nuevos contenidos lo antes posible).
¿Cómo analizar la información obtenida a partir de los logs?
¿Cómo analizar los logs?
El archivo log es enorme y está en bruto, con información desordenada. En otras palabras, su consulta resulta bastante complicada. Esto hace que sea difícil, si no imposible, analizarlo manualmente, lo que llevaría mucho tiempo y sería tedioso. Por lo tanto, es necesario utilizar herramientas que puedan hacer el trabajo por ti y clasificar los datos en bruto para extraer la información que necesitas para optimizar tu SEO lo más rápidamente posible. Existen muchas soluciones en el mercado, como Screaming Frog u OnCrawl. Sin embargo, su uso debe estar respaldado por la utilización conjunta de herramientas de rastreo SEO y de análisis de datos (Search Console, Google Analytics, etc.), ya que, aunque estas herramientas facilitan la lectura de los logs, no bastan para realizar un análisis completo, ni para interpretar correctamente los datos con el fin de extraer recomendaciones tangibles. Por último, ¡es fundamental saber utilizar los indicadores pertinentes!
Indicadores pertinentes a tener en cuenta
en un análisis de logs
-
Frecuencia de crawl
Este indicador muestra la frecuencia con la que tu portal web es rastreado por los robots de los motores de búsqueda, con las fechas de las últimas visitas y el número de visitas (una misma página puede ser rastreada varias veces al día si es especialmente importante). Así, podrás comprobar que las páginas estratégicas son efectivamente visitadas por los robots y de forma regular.
-
Ventana de crawl
Es el número de días necesarios para realizar un rastreo de todas las URL de tu portal web. Esta ventana se sitúa generalmente entre 1 y 3 semanas: es el tiempo medio entre dos rastreos de los robots, a tener en cuenta cuando se realizan modificaciones y se quiere saber cuándo se indexarán y cuándo se notará su impacto en el posicionamiento web. También es una forma de anticipar los períodos adecuados para insertar nuevos contenidos.
-
Uso del Crawl Budget
El análisis de logs da acceso a un indicador formidable: el modo en que se utiliza el Crawl Budget de los motores de búsqueda, es decir, el límite del número de páginas que el robot está autorizado a rastrear. Esta información es fundamental para comprender qué páginas o qué categorías del portal se ven favorecidas durante el rastreo, y para redirigir a los robots de modo que indexen prioritariamente las URL que tú consideres más importantes para el SEO.
-
Errores del SEO técnico
Varios indicadores pretenden identificar los puntos de bloqueo técnico, aquellos que dificultan el posicionamiento web del portal, tales como URL duplicadas, problemas de velocidad de carga, páginas que presentan errores (301, 404, 500), etc. Estos problemas perjudican la exploración del portal por parte de los robots, pero también la calidad de la experiencia del usuario, señal que tienen en cuenta los motores de búsqueda para juzgar la pertinencia de una página.
-
Contenido poco relevante
El análisis de logs permite identificar los contenidos irrelevantes de tu portal web. Este contenido es rastreado por los robots con dos efectos negativos: malgasta los recursos asignados al Crawl Budget (en detrimento de las páginas estratégicas, cuyo descubrimiento se retrasa) y puede penalizar tu SEO. En este caso, nos referimos a contenido duplicado, errores 404, páginas pirateadas, contenido de baja calidad, etc.
-
Páginas web huérfanas
Junto con un crawl SEO, el análisis de logs puede hacer aparecer las páginas llamadas «huérfanas»: son conocidas por los motores de búsqueda (porque muestran valores altos en medidas importantes) sin estar vinculadas al portal web debido a la falta de enlaces que se dirigen a ellas. Estas páginas pueden estar bien posicionadas en las SERP y generar tráfico: por eso, es importante integrarlas en la red de enlaces internos.
-
Crawl en la versión para dispositivos móviles
Gracias a los logs, se puede evaluar la proporción de rastreo para dispositivos móviles y para ordenadores. En Google, este indicador permite saber si un portal ha pasado al índice Mobile First: entonces es visitado en un 80% por el robot mobile y en un 20% por el robot dedicado a ordenadores (estos valores se invierten para el índice clásico). El interés es poder rehacer las versiones para dispositivos móviles de tus páginas si surge la necesidad.
-
Solidez de la red de enlaces internos
Al dar indicaciones sobre las URL rastreadas por los motores (en comparación con las URL rastreadas durante un crawl SEO), es posible tener una visión clara de la estructura de un portal web y de su red de enlaces internos. El siguiente paso consiste en optimizar y consolidar esta red para facilitar el siguiente rastreo de los robots y permitirles descubrir páginas importantes que antes ignoraban o descuidaban.
Eskimoz Nuestro compromiso
-
Experiencia
Desde 2010, hemos trabajado con más de 2.000 clientes en 90 países. Esta experiencia nos permite responder con precisión a tus retos y brindarte la mayor calidad posible.
-
Pasión
Somos un equipo de entusiastas que está constantemente atento a la evolución del sector. Este estado de ánimo te garantiza que trabajarás con los mejores asesores.
-
Rendimiento
Te apoyamos en la implantación de una estrategia centrada en el ROI. Nuestro compromiso es influir en tu negocio proporcionándote opciones de crecimiento.
Preguntas frecuentes
Utilizado en SEO, el análisis de logs consiste en extraer información del archivo log (adjunto al servidor del portal web) para explotarla con fines de optimización. Los logs registran todos los eventos que tienen lugar en el servidor, ya sea que procedan de los internautas o de los robots de los motores de búsqueda durante el rastreo. El interés reside en que los datos resultantes del análisis de logs son muy precisos y fiables.
El análisis de logs permite reconstruir, punto por punto, el recorrido de los robots de los motores de búsqueda al rastrear un portal web. Esto permite «ver» el portal exactamente como lo «ven» los robots y extraer una gran cantidad de información fundamental para la elaboración de recomendaciones para el SEO del portal. Se trata, en definitiva, de una herramienta fundamental para el SEO técnico.
El análisis de logs no puede hacerse manualmente debido a la complejidad de la operación y a la gran cantidad de datos brutos que hay que depurar. Por lo tanto, es necesario utilizar una herramienta especializada en la extracción, visualización y explotación de logs, como Screaming Frog u OnCrawl. También es necesario cruzar estos datos con los resultados de un crawl SEO clásico. Por último, es fundamental identificar los indicadores pertinentes, los que se encuentran en sintonía con tus objetivos de SEO.