Caídas de visibilidad: ¿cómo empezar a investigar?

MJ Cachón
MJ Cachón

Con el gráfico de visibilidad, muchas veces encontramos caídas o subidas en el índice que nos pueden ayudar a identificar incidencias (positivas o negativas). El artículo explica cómo ir tirando del hilo con los datos de SISTRIX para identificar qué ha pasado, ¡vamos allá!

Para este articulo vamos a usar tres ejemplos diferentes: varias caídas repentina y una bajada de visibilidad tras una migración.

Caída repentina: ¿por dónde empezamos?

Os pongo en antecedentes: nos ponemos a revisar la visibilidad del proyecto y nos encontramos lo siguiente

¿Por dónde podemos empezar? Pues como os podréis imaginar, deberíamos chequear lo más restrictivo en cuanto a directivas y situaciones que un proyecto SEO puede albergar:

  • ¿La web está disponible, responde 200 OK o está caída (500) o eliminada (404)?
  • ¿Existen directivas que impiden la indexación o que fomentan la desindexación? Noindex tag o por cabeceras http.
  • ¿Existe un bloqueo del rastreo? Por ejemplo, mirando robots.txt
  • Ante tecnologías basadas en js, ¿Google puede renderizar el contenido?
  • ¿Hemos recibido algún aviso por Google Search Console sobre penalizaciones manuales?

En el caso de Redalyc.org, el proyecto está basado en Angular Js, por lo que ya podríamos empezar a revisar si Google es capaz de renderizar correctamente el contenido.

Podemos usar OPTIMIZER para crawlear el sitio con el mismo user-agent que usa Google y tener un análisis ya más profundo.

Podemos usar la herramienta de Mobile Friendly Test de Google para identificar si es capaz o no de renderizar y saber si puede ser ese el problema.

Para webs basadas en frameworks JS hay una solución más compleja y costosa que es implementar SSR, es decir, que el servidor entregue el HTML ya renderizado.

La alternativa, más sencilla, sería implementar Dynamic Rendering, podéis consultar la documentación de Google aquí.

Fijaos que usando la opción Changes de Wayback Machinne, podemos ver qué cambios han ocurrido entre dos fechas. Desde esta url podéis elegir las dos fechas y al darle a comparar, veréis resaltados los cambios tal que así:

¿Pero ya podemos concluir que esto es lo que le ha pasado a Redalyc?

No tan rápido, lo veremos en el siguiente punto 🙂

En el caso de motofan.com, tan solo intentando entrar en la web, ya vemos que no carga o tarda demasiado y el navegador no nos devuelve el contenido. Si Google está intentando acceder y le ocurre lo mismo, pues las consecuencias, ya las sabéis…

Por último, otro caso fácil y evidente de caída repentina de visibilidad es mheducation.es

Tan solo visitando la web y teniendo activo el plugin SeeRobots, ya vemos que existe un problemas con las instrucciones meta robots, pues su valor está establecido en NOINDEX

Se está produciendo una desindexación de urls, solo tendríamos que identificar en cuántas urls se ha añadido por error esta instrucción y eliminarla o modificarla por INDEX. La reflexión aquí también está en POR QUÉ ha sucedido, pero lo importante es identificarlo y tratar de resolverlo.

De lo general a lo particular

En paralelo, en SISTRIX tenemos varias formas de ver si ha afectado a una parte de la web o a la web al completo.

La primera opción es revisar si todos los subdominios y subdirectorios, han tenido el mismo impacto o no.

Por otro lado, podemos hacer uso también de una potente funcionalidad que es «Cambios en el Ranking», para identificar qué rankings hemos perdido o cuáles han salido del top 10 de Google.

Para el caso de Redalyc, he revisado qué keywords estaban en el top100 el 2 de marzo y ya no lo están el 16 de marzo

Me he descargado todas las urls de rankings perdidos para ver si esas urls dan 404 o no y seguir investigando.

Y además, no se observa que haya un cambio masivo de urls ni eliminación de las mismas, por lo que se han movido 180 pdfs al protocolo https

Si os fijáis en el desglose de directorios, podéis ver fácilmente que el cambio lo hicieron en enero, así que estos pdfs son casos puntuales que han ocurrido ahora

En suma, ¿qué he encontrado? Que el 80% de las urls que pierden rankings, son PDFS,

¿Puede que los PDF no sean la mejor respuesta para determinadas keywords? Habrá que estudiarlo a fondo, pero usando las listas podemos ver dónde han ido parar los rankings perdidos y seguir uniendo puntos.

Este aspecto añadido al tema de render JS, pues ya tendríamos 2 áreas en las que investigar en profundidad.

Una migración ¿mal hecha?

En el capítulo de migraciones, con SISTRIX es fácil identificar los cambios de dominio o rediseño, como ya hicimos el artículo de El Palacio de la Plata o el de Aki y Leroy Merlín.

Para este ejemplo he revisado el caso de Toy Planet, que migró su sitio del .es al .com

En estos casos, se suele hacer una planificación exhaustiva meses antes del lanzamiento, en este caso, se trata de un cambio de dominio y el paso a la tecnología ecommerce de Salesforce.

¿Qué comprobaciones deberíamos acometer para identificar si hemos hecho algo mal una vez que ya hemos migrado? Pues a grandes rasgos:

  • Comprobar las redirecciones y si Google puede acceder correctamente tanto desde user-agent mobile como desktop
  • Aspectos técnicos: velocidad de carga, meta robots, canonical, robots.txt, sitemaps, profundidad de los links…
  • Aspectos de relevancia: chequear si ha habido grandes cambios en estructura y contenido de las páginas, etiquetados, datos estructurados, jerarquía de las páginas…
  • Monitorización de las métricas principales en cada área SEO: rastreo con los logs, indexación total y por secciones, visitas y landings que reciben tráfico orgánico, rankings, impresiones y clics, etc.

Podéis ampliar la info en este artículo sobre Migraciones.

Con lo que tengo a mi alcance (rankings), no he encontrado nada concluyente que me haga pensar que está mal ejecutada, sin embargo, revisando la fecha en la que el dominio .es empieza a caer, no coincide con la fecha en la que migran, por lo que cabe una hipétesis: ¿cayó antes de migrar?

Si nos fijamos en la fecha, 11/11/2019, esa semana hubo rumores desde el día 8 de noviembre de un posible cambio de algoritmo que Google nunca confirmó.

Si comparamos la visibilidad con alguna de las webs que en esas fechas sufrió una gran caída, podríamos tener una hipótesis extra que no tiene nada que ver con la migración.

Conclusiones y aprendizajes

En general, para analizar caídas de visibilidad, uno de los indicios de un problema SEO, necesitamos más datos para tener una serie de hipótesis sólidas y bien planteadas, datos como por ejemplo:

  • Datos de rastreo: páginas que reciben hits totales, agrupadas por segmentos (tipo de página, tipo de contenido, tipo de intent, aporte en negocio, etc.). Añadir datos de cobertura de Google Search Console.
  • Datos de indexación: páginas indexadas totales, agrupadas por segmentos (tipo de página, tipo de contenido, tipo de intent, aporte en negocio, etc.). Añadir datos de cobertura de Google Search Console.
  • Datos de rendimiento: métricas de velocidad de carga por tipo de página, por dispositivo, y evolutivos basados en una periodicidad temporal (diaria, semanal, mensual),
  • Datos de Visibilidad y Tráfico: índice de visibilidad, nº de palabras clave posicionadas, nº de urls posicionadas, y todo ditribuido por subdominios, directorios y url, lo mismo con visitas con segmentos de valor para el negocio (tipo de página, intent, profundidad….). Añadir datos de impresiones, clics y CTR
  • Datos de SERPs: distribución de formatos y features, features por intent, y quizás cruzar esto con datos de CTR de Google Search Console

Nuestro principal aprendizaje es que, salvo en los casos evidentes, como el noindex o las webs cuyo servidor no responde, en el resto de casos no podemos afirmar con certeza qué ha motivado la caída, pero si podemos ver la cúspide del iceberg para seguir escarbando hacia las profundidades del problema que ha motivado la caída y con datos, quizás llegar a contemplar la magnitud de la situación al completo.

Podemos decir que no ha sido un momento muy afortunado el que ha hecho que coincida una migración con un update, y quizás, podemos considerar los indicios que se observan para afirmar que la caída comienza antes de la migración, pero sin poder revisar el resto de datos que comentaba, solo son suposiciones.

También podemos mencionar el hecho de usar frameworks JS implica un alto esfuerzo en entender cómo Google procesa, accede y renderiza el contenido, y las implicaciones que puede tener esto tanto en la elección de la tecnología, los impactos en SEO y en el negocio, y por supuesto, la experiencia final que experimentará el usuario.

Por finalizar, comentar que existe un sesgo cognitivo llamado «sesgo de confirmación», que consiste en «favorecer, buscar, interpretar, y recordar, la información que confirma las propias creencias o hipótesis, dando desproporcionadamente menos consideración a posibles alternativas». Tengamos la responsabilidad y la precaución de no incurrir en conclusiones que no puedan ser demostradas con datos o, al menos, que no sean fruto de chequear varias hipótesis alternativas, la reflexión, el análisis y la autocrítica nos llevará a ser mejores profesionales.

Artículos relacionados
Comentarios
Pasados 30 días no será posible publicar más comentarios.