SEO en grandes Websites

Detrás de grandes páginas web hay a menudo grandes empresas. Ya sea como SEO interno, agencia o freelance: quien optimiza grandes proyectos, encuentra pronto nuevos desafíos. Nuestro profesionales te indican lo que necesitas saber.

Detrás de los sitios Web grades hay muchos conocimientos técnicos. Nosotros en SISTRIX siempre nos hemos comprometido a compartir conocimiento singular sobre SEO de primera mano. Cuatro expertos en SEO españoles que se ocupan de los sitios web de las principales compañías te brindan conocimientos exclusivos sobre SEO para proyectos extensos.


Carlos Redondo
Safecont

Daniel Pinillos
funnelpunk.com

Lakil Essady
Crawlo

Pedro Martínez
Unidad Editorial

Cuando se trata de SEO para sitios web grandes, Carlos Redondo, Pedro Martinez, Lakil Essady y Daniel Pinillos nos hablan de su propia experiencia. Llevan trabajando con SEO desde hace años, han asesorado en múltiples proyectos y saben por lo tanto, qué medidas SEO implementar en o para grandes empresas.

Resumen


¿Qué habilidades debe tener un SEO para trabajar en grandes proyectos?

Cuando hablamos del equipo perfecto SEO, debemos hablar también de un buen lider SEO. Un buen lider SEO debe tener una solida comprensión del SEO técnicoy entender la infraestructura de una web grande.

Un buen SEO no necesita esa única habilidad especial: los especialistas técnicos y de contenido son indespensables,Pero la optimización exitosa de los motores de búsqueda siempre tiene en cuenta la visión general.

En sitios web extensos, puede ser útil contar con equipos especializados en diferentes campos.

¿Tiene o no sentido trabajar con agencias o consultores externos?

Una ventaja clave de trabajar con agencias es la visión externa de las cosas en una empresa. Está claro que nadie conoce su propio sitio web y la estructura técnica, así como el SEO inhouse de una empresa; sin embargo, solo conoce el caso número 1. Las agencias, sin embargo, ya han guiado muchos proyectos y han ganado una fuerte experiencia . Conocen las oportunidades y los riesgos que quizás no vea como propios inhouse.

Los Skill-sets se vuelven cada vez más nichos y el trabajo SEO se vuelve más especializado: conseguir un consultor de SEO puede ser útil.

Las empresas no agrupan todos los recursos técnicos en la propia empresa. Si se requiere experiencia, trabajar con una agencia especializada es la mejor opción y también brinda una valiosa oportunidad para cuestionar su propia estrategia. Esto hace que las agencias sean una importante incorporación al ecosistema del marketing digital.

SEO en grandes proyectos: ¿Qué departamentos deben saber qué?

El trabajo de un SEO siempre se relaciona con otras áreas de una empresa; la más importante es una buena comunicación entre los diferentes departamentos. Si todos en la empresa conocen el “mantra básico” del SEO, ya se ha dado un paso importante.

Los SEO deberían dedicar más tiempo a escuchar a otros departamentos, en lugar de hablarles.

Las empresas exitosas entienden SEO no como un departamento, sino como un proceso y como un canal para atraer clientes potenciales, conversiones y ventas. Con este reconocimiento, SEO obtendrá la atención que merece en la empresa.

¿Cómo se ve el futuro del SEO para grandes proyectos?

En el ultimo video, nuestros invitados echan un vistazo a la bola de cristal SEO. Veremos un aumento constante en las nuevas disciplinas de SEO a medida que avance la tecnología, similar a lo que está experimentando actualmente la búsqueda por voz. Por lo tanto, los SEO serán cada vez más especializados y ocuparán nichos (deberían de).

No es improbable que, hoy en día, solo podamos estar haciendo la mitad de las cosas que se nos podría exigir en cinco años.

SEO para grandes sitios Web es un tema interesante, pero ¿cómo solucionan los expertos SEO los problemas técnicos en un sitio web extenso?

¡Vamos a preguntarle! Consultamos a SEOs de Alemania, Gran Bretaña y España y les hicimos preguntas específicas en este contexto.

Junto a nuestros invitados españoles Carlos Redondo, Pedro Martinez, Lakil Essady y Daniel Pinillos tomaron la palabra desde Alemania Dominik Schwarz, Daniel Reeh, Benedikt Kirch, Nedim Šabić y Markus Hövener. Cómo se resuelven las cosas en Reino Unido nos lo aclaran Kirsty Hulse, Alex Moss, Stephen Kenwright y Patrick Langridge.


¿Qué estrategias se recomiendan para el rastreo e indexación de sitios web grandes?

La primera pregunta en términos de rastreo e indexación debería ser: ¿Qué páginas realmente necesitas y cuáles no? Nuestros expertos coinciden en que la pensada creación de contenido es una poderosa palanca para rastrear e indexar de manera confiable.

Daniel Reeh
meinestadt.de

Contenido de la web: tanto como sea necesario, tan poco como sea posible.

Un problema común con el rastreo y la indexación es el contenido duplicado que se ha creado debido a los filtros y otros parámetros. Aquí ayuda externalizar los parámetros tanto como sea posible en las cookies y no dejar que Google rastree. Los filtros y las navegaciones facetadas aún se pueden implementar bien a través del patrón PRG.

Además, uno debe estar atento a la profundidad de clics de sus propias páginas. Cuanto más profundo es el contenido, más tiempo tarda Googlebot para encontrarlo.

Especialmente para sitios web grandes, una división en clústeres por temas ha demostrado ser útil. Dado que ya no es posible ver y revisar todas las páginas individualmente para sitios web grandes, la vinculación interna y entre los clústeres debe estructurarse sistemáticamente.

El uso de XML, imágenes, vídeos y Sitemaps ayuda a Googlebot a entender una página rica. Estos archivos nunca se deben crear a mano en sitios web extensos, sino siempre de forma algorítmica.

¡También la PageSpeed es un factor! Con tiempos de carga más rápidos, Googlebot puede encontrar más contenido al mismo tiempo y con los mismos recursos.

En resumen, no hay una solución general para ningún sitio web grande. Sin embargo, a partir de cierto tamaño, es indispensable comprender tu propio sistema y controlarlo.


¿Cuál es el beneficio de desindexar grandes cantidades de páginas?

Desindexar un gran número de páginas de tu propio dominio puede traer beneficios. Aquí, también, nuestros expertos recomiendan una estrategia bien pensada.

Si se pregunta si ciertas páginas o secciones enteras de una página web no están indexadas en el índice de Google, el niño ya ha caído en el pozo. Especialmente con las entradas creadas editorialmente, una revisión puede valer la pena antes de desindexar el contenido.

Dominik Schwarz
hometogo.de

Uno debería elegir entre “desindexación” y “ni siquiera crear”.

La eliminación de partes grandes e innecesarias de una página web también puede mejorar las señales al resto de las páginas. Idealmente, después de una desindexación a gran escala, solo quedarán páginas que se han clasificado internamente como necesarias y, por lo tanto, que tienen una calidad superior a la media.

Si el contenido hiperdinámico del sitio web ha encontrado su camino en el índice, puede excluirse de la indexación. La situación es similar con los parámetros y la paginación. En primer lugar, tiene sentido mapear los cambios técnicamente limpios usando su propio sistema. Además, el atributo noindex solo afecta a la indexación, no el rastreo de la página.

El uso de hacks de Google, como compartir “noindex” y “follow”, pueden ser una herramienta efectiva a corto plazo, pero debe evitarse. Aquí, uno depende del procesamiento de estas señales por parte de Google, que puede cambiar en cualquier momento.

Por último, pero no menos importante, una reducción en las páginas existentes puede dar como resultado una vinculación interna más fuerte y simplificada, lo que a su vez beneficia el rastreo de Googlebot.


¿Cómo manejo y controlo Googlebot en sitios web grandes?

Tan pronto como un sitio web ha alcanzado el nivel del que se puede hablar de un sitio web grande, el control y la monitorización de Googlebot ganan importancia.

La Google Search Console proporciona información importante sobre el comportamiento de rastreo de Googlebot en su propia página. Google proporciona información útil en las estadísticas de rastreo sobre cuántas subpáginas del dominio se rastrearon en un día. Por ejemplo, si hay 1.000.000 de URL en un dominio, pero Google solo rastrea 20.000 páginas por día, un rastreo completo puede llevar mucho tiempo.

Patrick Langridge
screamingfrog.co.uk

Con una arquitectura de información bien pensada, Googlebot es más fácil de controlar que el archivo robots.txt. Crea una ruta lógica a través de las páginas, lo que tiene sentido tanto para los usuarios como para los motores de búsqueda.

Para sitios web extensos, también es recomendable analizar sus propios archivos de registro del servidor, ya que están mucho más actualizados que en Search Console. Tiene sentido trabajar con las alertas para las desviaciones de las métricas previamente definidas, ya que la cantidad de entradas en los registros ya no se pueden gestionar manualmente.

Si no se ha pensado en evaluar los archivos de registro del servidor de un sitio web grande, puede valer la pena comenzar con una pila-ELK. Esta es una combinación de Elastic Search, Logstash y Kibana, con la que se recopilan, almacenan y evalúan los archivos de registro.

Lakil Essady
crawlo.com

No todo lo que dicen los Logs es correcto. Por lo tanto, es importante prestar especial atención a cuál es el verdadero Googlebot y cuál no.

Otra posibilidad: simular el Googlebot a través de un rastreador externo que se ejecute en la página. Rápidamente, los problemas se vuelven visibles, que pueden impedir que Google rastree o lo limite.


Los links internos son especialmente importantes para los sitios web con muchas subpáginas para guiar a los usuarios y, por supuesto, al robot de Google a través del sitio web. No existe una solución general para enlazar cientos de miles o millones de páginas con enlaces internos. Está claro que se requiere una solución automatizada en esta escala.

¿Está dividido su contenido para que por ejemplo pueda dividirse en sus propios silos? ¿O tiene sentido ampliar la navegación, por ejemplo, con la ayuda de un mega-menú?

Ambas variantes permiten, de diferentes formas, conectar automáticamente un gran número de páginas con enlaces internos. En ambos casos, es importante establecer objetivos estratégicos claros.

Stephen Kenwright
branded3.com

Una estrategia obvia es utilizar una ruta de navegación, así como encabezados y pies de página.

Al decidir qué páginas tienen más probabilidades de estar vinculadas internamente, los valores de Analytics también pueden ser una herramienta de toma de decisiones. En primer lugar, vincula los tipos de página con alto tráfico.

Otras dos estrategias útiles son los enlaces internos al “estilo de Wikipedia”, así como la provisión automática de enlaces a páginas similares y adicionales, por ejemplo, en la barra lateral de un artículo.


¿Qué obstáculos aparecen a menudo en la implementación técnica?

La implementación de un plan de acción es un desafío para los sitios web de todos los tamaños. Esto es aún más cierto para los sitios web grandes. Por esta razón, hemos pedido a nuestros expertos que informen sobre obstáculos, que a menudo ven en la implementación técnica.

A menudo, hay una falta de capacidad técnica: si no se planifican los recursos para el departamento de IT, puede conducir rápidamente a que los planes no se implementen por completo, o al menos no dentro del marco de tiempo planificado.

Benedikt Kirch
obi.de

Por último, se debe especificar para cada tipo de página qué medidas de SEO deberían funcionar. Esto no solo hace que sea más fácil para IT obtener rápidamente una visión general de las medidas ya implementadas, sino también para sí mismo.

Dos clásicos en lo que respecta a errores en la implementación técnica faltan días o están incorrectamente establecidos. Ya sea el hreflang o la clara definición de una versión canónica usando canonicals.

Curiosamente, el punto más infravalorado es la comunicación: los grandes sitios web a menudo tienen grandes organizaciones con muchos involucrados en el proceso de producción. El dicho “muchos cocineros estropean las gachas”, desafortunadamente es demasiado bueno.

Una buena herramienta son los procedimientos automatizados; por ejemplo, en forma de Unit-Tests para garantizar que todo funcione según lo previsto antes y después de cada lanzamiento. En el desarrollo ágil, los SEO-Checkpoints han demostrado ser un medio eficaz: los posibles obstáculos se podrán detectar pronto.


¿Cómo cambia una marca fuerte, con sus búsquedas por marca, la investigación de palabras clave?

Si un sitio web grande es una marca conocida, las búsquedas de marca generadas pueden proporcionar información interesante sobre el sitio web.

Aunque todos nuestros expertos coinciden en que a una marca fuerte no le afecta la investigación regular de palabras clave, puede valer la pena evaluar las búsquedas de marca.

Esto se debe a que se puede relacionar la información sobre el contenido del sitio que los usuarios consideran que es específica de la marca. Además, las grandes empresas tienen la oportunidad de utilizar otros canales, como la publicidad televisiva, para generar un volumen de búsqueda de sus nuevas palabras clave. Para estas ya han creado un entorno de mercado muy diferente al de las búsquedas genéricas.

Alex Moss
firecask.com

Todo depende de cómo se perciba la marca en público. Si la percepción no es consistentemente positiva, la investigación de palabras clave siempre debe considerar el tema de la “gestión de la reputación”.


¿Cómo se organiza la asignación del material de palabras clave existente a los formatos y cómo se evita una canibalización de palabras clave de los formatos individuales entre sí?

En los sitios web grandes, a menudo hay una gran cantidad de contenido y formatos de contenido. Cómo es posible controlar la distribución de contenido en diferentes formatos, como blog, video, guías, para que no se canibalicen mutuamente, es un tema clave.

En la distribución se puede usar la intención del usuario. Al realizar una búsqueda, Google muestra automáticamente los formatos que actualmente prefieren los usuarios. Esto se puede escalar mediante una evaluación de los SERP-Snippets de las palabras clave deseadas. Allí se puede evaluar por ejemplo, para qué consultas los videos tienen un buen ranking.

Para descubrir la canibalización, se pueden usar herramientas útiles. Localizar las subpáginas que se alternan con las palabras clave en el ranking o en las que aparecen más de una subpágina en los resultados. En estos casos, se debe decidir editorialmente, qué subpágina para la respectiva búsqueda proporciona el resultado más significativo.

Carlos Redondo
safecont.com

Para evitar la canibalización, clasificamos nuestro contenido de genérico a específico. Si aparecen dos resultados en una búsqueda, siempre se prefiere el más general.

Un paso efectivo de prevención de la canibalización es una estructura rigurosa y lógica en la arquitectura de la información del sitio. Un conjunto claro de reglas sobre cuándo se crean las páginas nuevas y dónde se ubican en la estructura impide que se creen contenidos similares indiscriminadamente.


¿Cómo se puede escalar, descubrir y cultivar “Evergreen – Content”?

La gran ventaja de Internet es que las publicaciones no se reprimen constantemente, como en los periódicos diarios o semanales, y se crean muchos contenidos fragmentados sobre un tema.

Se pueden crear URL individuales sobre el contenido que está continuamente disponible. Este contenido Evergreen ha demostrado ser una gran fuente de tráfico y confianza. Uno debe reconocer los formatos apropiados y expandirse.

Para identificar tu propio contenido Evergreen deberías usar tu propia herramienta de análisis web. ¿Qué temas podrían generar de manera continua o estacional flujos de tráfico fuertes durante varios años? Además, las herramientas de análisis se pueden utilizar para buscar URL que se posicionen para muchas palabras clave en el top 10.

No solo debes centrarte en tu propio sitio para encontrar contenidos que resistan la prueba del tiempo. Además, se puede usar un Content-Gap-Analysis para analizar a la competencia para la que se creó el contenido Evergreen.

En la creación de contenido, ayuda tener un proceso claro en el que se verifica en el diseño de una página, si este es adecuado para el formato Evergreen. De nuevo, puedes trabajar bien con clusters por temas para encontrar publicaciones nuevas.

No importa si está creando o desarrollando, debe darse cuenta de que la creación de contenido es siempre un proceso editorial y no puede ser externalizado por una máquina. La escalabilidad es posible, pero solo se puede lograr a través de un equipo más grande.

Nedim Šabić
Consultor de SEO independiente

¡Escalable solo con personas para proporcionar valor agregado!


Ningún sitio web grande puede funcionar sin una búsqueda interna. La gama de sistemas, desde soluciones Out-Of-The-Box hasta las propias creaciones, es enorme y la calidad de las búsquedas es muy diferente. Sin embargo, hay una serie de argumentos importantes para destacar la búsqueda interna como una herramienta importante, principalmente para el usuario.

Solo esto es motivo suficiente para invertir en la búsqueda interna. Desafortunadamente, los problemas en este contexto a menudo surgen debido a la falta de responsabilidad. Debe haber una persona de contacto clara en la empresa, que sea responsable de la búsqueda interna.

Kirsty Hulse
manyminds.digital

Para los usuarios que no desean hacer clic en las diferentes páginas de categorías individuales, la búsqueda interna es una función importante.

A partir de la información en la búsqueda interna, muchos departamentos pueden extraer ideas importantes. De modo que puede encontrar páginas que son muy frecuentadas, pero que no son fáciles de encontrar en la navegación. También puede ver lo que sus visitantes esperan del sitio web.

Especialmente interesante: ¿qué buscan y esperan sus visitantes del sitio web? Un análisis de todos los resultados de búsqueda para los cuales no se pudo mostrar ningún resultado proporciona información sobre las consultas de búsqueda en las que la página no pudo asignar correctamente un resultado a la intención del usuario.

Técnicamente, es importante mantener las páginas de resultados internos fuera de la Búsqueda de Google, ya que a Google no le gustan las SERPs en las SERPs.


¿Qué consejos tenéis para el A/B Test?

Probar sus propias hipótesis ha demostrado ser una buena manera, especialmente en la optimización de la conversión, en la que las decisiones pueden basarse no en la intuición sino en datos fiables.

En primer lugar, se debe hacer una distinción entre el A/B Tests para la interacción del usuario (optimización de conversión) y los A/B Test de los factores de posicionamiento SEO. Los SEO Test A/B, de los factores de posicionamiento, son difíciles porque muchos de los factores no se pueden descartar en la prueba. Cualquier tipo de interacción del usuario, por otro lado, debe probarse incondicionalmente y con la mayor frecuencia posible.

Pedro Martinez
Unidad Editorial

Si no pruebas contigo mismo cómo Google reacciona a los cambios, nunca entenderás estos procesos. No temas el análisis de Logs ni a los Tests A/B, ésta es la única forma en que puedes mejorar.

En lo que respecta a la implementación de pruebas, debe definirse y estar disponible una persona fija de contacto durante toda la prueba. Se ha demostrado que las implementaciones antes del fin de semana y las vacaciones a menudo causan problemas que no se pueden resolver directamente.

La mayoría de los proveedores y Frameworks trabajan mucho en JavaScript. Los Tests A/B teóricamente tienen el potencial de cambiar todo el sitio web y también dispararlo. Esto hace que sea importante monitorizar bien la prueba para detectar anticipadamente, si hay algún problema en la página web.

Por lo tanto, es apropiado tener un freno de emergencia del que se pueda tirar para detener la prueba y expandir el código, sin que IT o el proveedor externo tengan que responder.

Para evitar posibles problemas de contenido duplicado, la versión actual A (hipótesis nula) siempre se debe especificar como una versión canónica y a los motores de búsqueda siempre se pueden enviar a esta versión a través de una consulta de User Agent.


¿Qué condiciones se deben cumplir para los sitios web grandes, para que sea posible una internacionalización con Hreflang?

Con el marcado hreflang, Google ha creado una forma de vincular lingüísticamente subpáginas diferentes, pero relacionadas con el contenido, y hacer a los motores de búsqueda esta vinculación comprensible. Aunque hreflang viene con reglas relativamente simples, se puede acabar cometiendo errores.

Vale la pena estudiar los requisitos para el uso en Google del atributo hreflang precisamente porque, además de muchos posibles obstáculos técnicos, a menudo también hay errores conceptuales.

La primera condición es un sistema interno que conozca la relación de los contenidos entre los diferentes idiomas. Estos incluyen direcciones URL y números de artículos, especialmente si hay diferencias por cada país.

Markus Hövener
bloofusion.de

El requisito básico para las etiquetas hreflang correctas es una estructura idéntica de las distintas páginas por países.

Hay muchas maneras de usar parches auxiliares para que hreflang funcione en una página. Sin embargo, solo una implementación técnica limpia puede aprovechar los cambios posteriores, así como las páginas e idiomas nuevos sin una sobrecarga general.


¿Cómo se mantiene la visión general y cuando se desciende a nivel de palabras clave individuales?

Incluso con unas pocas decenas de miles de páginas, ya no es práctico ejecutar evaluaciones para cada subpágina. Con cientos de miles o millones de páginas, es aún menos práctico.

En el caso de sitios web muy extensos, vale la pena configurar alertas automáticas para las evaluaciones internas que rechacen una desviación de la norma. No se trata de entrar en pánico en cada erupción, pero es extremadamente útil para detectar tendencias.

Daniel Pinillos
FunnelPunk.com

Para monitorear el éxito de un proyecto grande de la manera más eficiente posible, se recomienda monitorear grupos de palabras clave completos: para cada Landingpage, subpágina o página de producto.

Estas tendencias, ya sean negativas o positivas, pueden analizarse en detalle e identificar las causas.

Para efectos generales, los índices pueden ser muy útiles, especialmente cuando se trata de evaluar posibles actualizaciones de Google utilizando una amplia variedad de ejemplos. Además, es aconsejable controlar su propio conjunto de palabras clave, que se puede usar para cubrir áreas, temas o nichos completos.