Hoy nos toca el tercer artículo especializado en sistemas de indexación SEO. Ya hemos abordadoy lapara controlar la indexación. Ahora nos toca trabajar con otro de los archivos más conocidos del SEO: los ficheros sitemaps.xml. Como en precedentes ocasiones vamos desgranar todo el contenido en diferentes puntos, en un caso así hablaremos sobre 12 cosas que es importante que sepas sobre estos ficheros. Algunas serán sabidas, otras espero que te sorprendan y como es lógico ciertas serán validas para unos proyectos o bien otros.
Los Sitemap no son más que una vía que nos ofrecen los motores de búsqueda para que nosotros mismos les digamos que páginas deberían rastrear. Como casi todo en herramientas de indexación son solo sugerencias y Google en realidad visitará las páginas que le de la gana en el orden que él quiera. Sin embargo en muchos proyectos en los que (más por defecto de la página web que de las arañas de Google) las arañas van un poco perdidas han demostrado ser de gran utilidad para guiarlas y asistirlas a encontrar el contenido.
Los sitemaps.xml son uno de los primeros archivos que Google se preocupó por que conociésemos y eso ha conseguido que exista muchísima documentación sobre como crearlos. A día de el día de hoy la mejor referencia oficial que tenemos la hallamos en "en muchísimos idiomas. El protocolo es muy simple pero tiene algunas peculariedades.
Este es el formato normal de un fichero sitemaps.xml bien hecho:
De esta estructura lo esencial es sobretodo la declaración inicial. Si no definimos el sitemap como un XML y sus atributos xmlns no será bien interpretado. Luego solo se trata de ir añadiendo nodos <url> con sus detalles (de los que solo <loc> es obligatorio). De echo la enorme mayoría de los sitemaps que encontrases verás que solo poseen el nodo "loc" y ningún otro detalle de las URLs.
La codificación de caracteres también es fundamental, solo se admite UTF-ocho así que hay que comprobarla. Además el sistema nos prohíbe de forma explicita el uso de ciertos caracteres. Si queremos emplearlos debemos "escapearlos" en código HTML, es decir, debemos usar un código HTML para identificar el carácter exacto que verdaderamente queremos agregar.
Por suerte estos no son muchos:
Todo muy lógico, y no es nada que aun site con un poco de posicionamiento SEO onpage bien hecho le vaya a afectar. Mas tengámonos en cuenta. Por ejemplo, ¿qué pasa con esta url: "?categoria=2&producto=25"? pues que realmente en nuestro sitemap deberíamos incluirla como "?categoria=2&producto=25".
Por último hay una restricción de tamaño:
Bien, hasta aquí la teoría, pasamos a las cosas que a una parte de la documentación básica deberíamos todos tener contempladas para hacer un buen empleo de estos archivos.
Esto no es solo verdad, sino si hacemos mal el fichero sitemap.xml podemos hacer más mal a la indexación que bien. Este es otro de los puntos clásicos de los SEOs que están empezando: en clase les dicen que los sitemaps.xml son esenciales y de ahí muchos comprenden que cualquier site que no los tenga no indexará bien y mejoraría su indexación con ellos.
Esto no es cierto, estos archivos son una guía a fin de que las arañas no se pierdan y sepan donde acceder. Mas ¿que pasa si no se pierden? Les estoy aportando algo con este archivo. Es posible que si, si tienes alguna estrategia de trabajo con ellos (vamos a ver múltiples ejemplos más adelante) pero solo por subirlo con URLs y nada más no ganarás nada con ello.
Así que por poner un ejemplo para sites pequeños (normalmetne con pocos recursos de desarrollo) y donde no vemos un inconveniente de estructura evidente nosotros desde IKAUE no solemos solicitar archivos sitemaps.xml. El posicionamiento web siembre debe jugar en la línea de la rentabilidad y sin duda gastar tiempo de desarrollo en algo que no aporta absolutamente nada carece de sentido. Y no, la solución no es subir un fichero sitemap.xml estático que creas tu con cualquier programa... ¿qué sentido tiene? ¿Vas a usar un crawler menor para ayudar a uno que es mucho más potente que el que tu utilizas? ¿Que esperas localizar que google no pueda encontrar por si acaso mismo?
Como contra además tenemos a toda esta gente que sube un sitemap sin tener mucha idea de posicionamiento web en buscadores y encima provoca problemas de indexación que ya antes no tenía. Esto pasa más de lo que podría parecer (hay demasiados "primos de" o bien "amigos de" haciendo posicionamiento SEO para webs pequeñas). Os pongo ciertos ejemplos de inconvenientes que podemos provocar con sitemaps.xml mal realizados.
En terminante 2 cosas a destacar: a) en muchas webs no notaras ninguna por añadir un sitemap y b) si no te lo tomas en serio puedes empeorar tu indexación en lugar de mejorarla. Como norma general, si no hay una estrategia clara detrás no hagas un sitemap.
Si es que en realidad es muy obvio que no asisten pero sigue sucediendo. La gente lee sitemap y hace asociaciones raras. No es lo mismo un fichero XML de Sitemaps que un Mapa del sitio montado en una o bien varias páginas de la web.
Un sitemap.xml:
Es un archivo muy concreto que tus usuarios no ven y que solo le ofreces a los rastreadores. Solo cumple funciones posicionamiento SEO, no afecta a la usabilidad del site
Un Mapa del sitio (o bien sitemap HTML o bien sitemap a secas):
Son páginas web que se empleaban hace muchos años para sustituir carencias de estructura en la página web. Lo que hacían estas páginas era, ante sites que no permitían a las arañas lograr el contenido saltando de enlace en enlace ofrecer una vía secundaria de indexación. Vamos, que se resolvían carencias básicas del site creando páginas nuevas en el mismo.
Esto hace unos años era muy común... teníamos Menús que se montaban en iframes o bien con flash. Las webs las hacían diseñadores, sin directrices y la UX ni tenía nombre... Más adelante aun se usaron para casos específicos: Por ejemplo era algo muy utilizado en Webs basadas en un buscador (clasificados, páginas de vuelos, etc.). La página tal y como estaba diseñada no ofrecía enlaces cara el contenido así que se ponía un link abajo de "mapa del sitio" donde link a enlace el contenido terminaba siendo accedido por las arañas. Eran otros tiempos y las arañas eran mucho más tontas y sabíamos menos sobre como gestionarlas.
A día de hoy los mapas del sitio no tienen sentido. Existen métodos mucho mejores para lograr que las arañas hallen el contenido. Lo primero es una arquitectura bien planificada y aprovechar los propios menús y bloques de links del site. Si esto no es suficiente es probable que necesitemos dar vías de acceso secundarias (las aerolíneas siguen haciéndolo) pero con una estructura muy cercana a una real de un site y con contenidos, no con simples páginas llenas de links...
Lo peor de este sistema es que quien lo tiene piensa que ha solucionado la papeleta y no es cierto... Lo dicho: Muerte a los mapas del sitio. No los relaciones jamás con los sitemaps.xml. Estos últimos son una herramienta estupenda para hacer SEO al paso que los desfasados mapas de sitio son solo un vestigio del pasado lúgubre del posicionamiento en buscadores.
Uno de los puntos básicos pero vitales para que Google lea nuestro sitemap. El sitemap no es como el fichero robots que siempre y en toda circunstancia queda alojado en la misma URL sino que prácticamente podemos ponerle cualquier nombre. Así que hay que decirle a Google (o a bing) donde buscar. Esto se hace mediante Google Search Console, donde encontraremos una sección llamada sitemap donde podemos apuntar esta URL. A esta acción la mal-llamamos "subir el sitemap". No subes nada, mas se le ha quedado este nombre.
Veremos más adelante que esta es la mejor vía posible puesto que nos da ciertas estadísticas sobre errores y su lectura, pero no es la única, realmente podemos emplear dos vías más para apuntarle a Google estos archivos.
Indincándolo en el robots.txt
Es una de las vías recomendadas y puede suponer una gran ventaja cuando hacemos implementaciones genéricas, en muchos sites al unísono o por lo que sea no podemos acceder al Google Search Console de cada dominio por separado. También puede ser una buena opción para motores de búsqueda menores. Por servirnos de un ejemplo, si vamos a trabajar sobretodo Google pero deseamos que de paso Bing lea nuestros sitemaps (si bien no vayamos a trabajarlos en bing) podemos añadirlo al Robots.txt y además darlos de alta en Google Search Console.
Es tan fácil como declarar todos los ficheros sitemaps que deseemos con la declaración "siteamap:" al comienzo de la línea.
Los buscadores los rastrearán pero no nos darán la información de indexación y fallos que si veríamos en Search Console.
Haciendo ping
Otra forma es hacer "ping" a una URL del buscador al que deseamos informar con la URL a leer. Un "Ping" no es más que una petición a esta URL sin más complejidades. Se carga la URL y el sistema se da por enterado. Esta solución también es valida para varios buscadores web. Mandamos un ping a una URL con el próximo formato "dominio buscador/ping?sitemap=URL del Sitemap". Por ejemplo para mandar a Google el ping de mi dominio llamaríamos a la próxima URL.
Esta es la forma más desmandada si bien puede servirnos para pegarle un toque de atención al buscador y que venga a mirar algo. Bastante gente lo usa además para procurar forzar reastreos: ante un update lanzamos pings de sitemaps que poseen las URLs con update intentando que la araña las visite. Si bien es cierto que subir sitemaps de URLs a realizar updates semeja que algo si que afecta yo por lo menos no he tenido mucha diferencia en hacer ping o no a sus sitemaps la verdad.
Es decir "midominio.com/carpeta1/carpeta2/sitemaps.xml" no debe contener enlaces a archivos de "midominio.com/carpeta1" o bien "midominio.com/" solo a los de "midominio.com/carpeta1/carpeta2/..."
Asi que por servirnos de un ejemplo crear la típica carpeta de /sitemaps/ y por ejemplo alojar uno en "midominio.com/sitemaps/posts.xml" no es una gran idea puesto que en teoría estos links no se seguirían.
Lo mejor que podemos hacer es que es que todos nuestros sitemaps queden en la raiz de nuestro dominio (así garantizamos que no vamos a tener esta clase de restricciones). También existe la posibilidad de tener las cosas bien organizadas, y por poner un ejemplo tener "/blog/sitemaps.xml" que solo tenga enlaces a "/blog/..." pero es más fácil confundirse con estas URLs que forzando a que los archivos se queden en la raiz del dominio (sin usar carpetas).
Lo que solemos hacer nosotros para ordenarlos es (si realmente tenemos esta necesidad) jugar con el nombre de los archivos. Por ejemplo, imagina que tienes un sitemap destinado al weblog de la tienda de madrid del site. Como no terminamos de fiarnos de meterlo en la carpeta "dominio.com/madrid/blog/sitemap.xml" pues ciertas URLs podrían no estar en esta estructura lo que si podemos es imitar algo similar con en el nombre poniéndole por nombre por ejemplo: "/sitemap-dominio-com--madrid--blog.xml"
Y es que el sitemap.xml es solo uno de los formatos aceptados (y el más completo y estándar, claro) mas hay otros que nos pueden ser realmente muy útiles en otros casos. Puedes.
Podemos subir archivos sitemap.txt, formados por un fichero muy simple que solo contenga todas las URLs del site una detrás de otra cada una en una línea distinta. Google los lee igual y nos podemos eludir complejidades técnicas si tenemos prisa o bien trabajamos con el típico proyecto con recursos técnicos limitados... (ejem). Como sitemap básico funcionará igual, mas este sistema evidentemente no es el más recomendado por la fácil razón de que perdemos muchas de las funcionalidades que veremos más adelante (dado exactamente a que solo señalamos URLs y nada más con ellos).
Otra opción aun menos conocida es que podemos
Subir un RSS o Feed del site. Estos son archivos que se usan para sindicar el contenido, es decir, para que ciertas herramientas puedan ver las finalizas publicaciones de una plataforma y leerlas. Son archivos XML que solo tienen contenido y no diseño. Si nunca has visto ninguno puedes ver el de cualqueir blog en wordpress añadiendo "/rss" al final de su URL. POr ejemplo,. Subir esta clase de ficheros suele suponer una mejora en la velocidad de indexación de nuevo contenido. Son sitemaps bastante consultados que por norma general solo contienen 10 o veinte elementos y por lo tanto Google puede leerlso muy rápidamente.
Estamos habituados a que los Sitemaps.xml se refieran a páginas HTML específicas mas en realidad pueden contener otros géneros de información. Google tiene detallados 4 géneros de sitemap entre aquéllos que resalta el estandar (URLs):
Por supuesto, cuando lo que deseamos es indexar contenido multimedia (algo que no siempre os recomendaría) los sitemaps especializados en vídeos e imágenes pueden ser muy útiles. Los de noticias también son utiles aunque con la desparición de Google News (que vuelve a estar visible, todos lo hemos visto) puede parecer que carecen de sentido lo cierto es que no se trabajan igual y deberían aprovecharse en sitios de noticias.
POr ultimo mencionar que incluso podemos mezclar estas tipologías de sitemaps creando ficheros que contengan sitemap de URLs, imágenes, vídeos, lo-que-desees a la vez... Yo no lo haría pues no ayuda a entender las cosas mejor mas existe esa posibilidad.
Y aquí viene el enorme problema al trabajar con sitemaps... ¿ponemos todos los atributos o bien no?
Los sitemaps nos ofrecen 3 campos a añadir a la URL:
Sobre su interpretación tenemos históricamente mensajes muy contradictorios por la parte de Google mas que a la que los lees te das cuenta de que todos tienen un hilo común. No voy a contestarlos por el hecho de que son bastantes, pero os los resumo: por una parte nos dicen que se ignora la data de modificacion y la frecuencia por el hecho de que absolutamente nadie lo hacia bien, por otro que se ignora la prioridad por el hecho de que no aportaba la información aguardada... mas siempre y en toda circunstancia, en todos y cada comentario que nos hacen hay una coletilla: "en la mayoría de los casos".
Al final todo esto significa que estas etiquetas bien gestionadas no se ignoran, pero que solemos gestionarlas mal y cuando eso sucede Google no les hace caso omiso. Esto cuadra, prácticamente en todos los aspectos es así: si Google no lo ve claro ignora tus etiquetados. Así que partamos de que si que podemos usarlas, pero solo para usarlas bien, no para hacer el bruto.
Os comento algunos ejemplos de mala gestión que harían que google ignorase estas etiquetas...
Sobre lastmod
¿Que hacer con esta directriz?
Pensemos en su utilidad de cara al posicionamiento en buscadores. Realmente incorporarlo solo nos sirve para apuntar a Google que se está perdiendo una actualización en uno de nuestros contenidos. Aguardamos con ello que al ver que su fecha de modificación es más reciente que la que el tiene en caché venga a ver el contenido antes. Por ese motivo yo os recomendaría lo siguiente:
Para todo lo demás creo que es preferible no usarlo a emplearlo mal y que eso invalide toda la etiqueta al leer nuestos sitemaps.
ChangeFreq
Otra vez acostumbra a emplearse muy mal esta etiqueta:
¿Cómo deberíamos usarlo?
En la práctica nosotros en IKAUE prácticamente nunca la señalamos porque son matices muy particulares y creemos poco en que las arañas vayan a mudar su cola de indexación por esta directriz. Pero puesto a utilizarlo solo lo usaría en listados, para marcar diferencias entre los que añaden nuevos elementos constantemente (daily) y los que solo reciben nuevos elementos cada pocos días (weekly), aguardando así optimar mejor nuestro crawl budget detectando mejor nuevos items en la página web.
Priority
Como en las demás esta también suele emplearse muy mal...
¿como utilizar la indicación de priority?
Cuando no tenemos problemas de indexación el empleo más lógico que podemos hacer del sitemap es asistirnos a fortalecer la estructura de la página web marcando la importancia de cada una de nuestras webs. En estos sites subir el típico archivo de sitemaps donde todo el sitemap tiene priority "1.0" ya sabemos que es estúpido. Lo que tenemos es que aprovechar este campo para reforzar la estructura/arquitectura del site. La misma definición de menús, URLs, Breadcrumbs e inlinks, debería ser consecuente con los datos indicados en priority.
Lo que buscamos es que Google vea que nuestras prioridades si tienen sentido para que nos haga caso y así ayudarle a matizar lo más importante. Así localizar que la home y secciones primordiales tienen prioridad 1.0 y vamos bajando hasta localizar los productos estrella en prioridad 0.7 o 0.6 puede tener sentido. Haciéndolo así no se nos permite colocar estos productos en máxima prioridad (mintiendo a Google) pero si por lo menos diferenciar los importantes de los que no lo son (por servirnos de un ejemplo marcando los esenciales a 0.7 y los menos esenciales a 0.5).
Hay que partir de nuestra deficnición de arquitectura web y después hacer pequeñas modificaciones sin cosas demasiado drásticas que invaliden la directriz absolutamente para Google.
Y aqui viene otra utilidad secundaria de los sitemaps. Todos sabemos que el proyecto web perfecto no existe... Todos tienen uno, 2 o incluso muchos inconvenientes. email marketing precios cosas que simplemente resulta un problema etiquetar en ciertas web. Abordamos ya como solventar problemas de indexación desde cabeceras o indexación desde el robots mas veamos 2 posibilidades que si que nos aportan los sitemaps para suplir a etiquetas específicas.
Marcar los hreflang desde el sitemap
Los hreflang son una especie de implementación en sites con orientación a varias zonas geográficas o bien simplemente idiomas. Su definición es realmente sencilla: Desde cada página web debo indicar en su cabecera y a través de etiquetas <link rel="alternate" hreflang /> sus urls equivalentes en otro idioma.
Esto que semeja muy simple en la práctica si tu página web por detrás no tiene estas equivalencias ya hechas (algo muy común en CMSs libres donde esta orientación multiidioma no se había planeado desde un inicio) o si las maquetas son singularmente rígidas puede ser un infierno para los programadores.
En estos casos has de saber que contamos con otra posibilidad: señalar estas relaciones en los ficheros sitemap en vez de (o además de) en la web. Su uso es igualmente simple: en cada <url/< del sitempa señalamos además del nodo <loc> múltiples nodos <xhtml:link/> con las equivalencias de esa URL con otros idiomas. El problema prosigue siendo el mismo: debemos identificar en todos y cada URL todas sus posibles traducciones pero por lo menos disponemos de otro sitio (muchas veces más programado a medida del posicionamiento en buscadores) donde hacer este trabajo.
Puedes ver, o simplemente guiarte por el ejemplo que te copio a continuación:
Evitar canibalizaciones del contenido
Y este es un método que desde luego no es equivalente a una buena etiqueta canonical (de las que hablaremos en otro blog post) mas si que puede asistirnos en determinados momentos en los que tenemos canibalizaciones de contenido (entiéndase canibalizado como contenido copiado interno en el que uno posiciona sobre otro haciendo a la segunda URL absolutamente inútil).
En estos casos lo que acostumbramos a hacer es decidir cual de los dos contenidos deseamos que sea el que se posicione y añadir una etiqueta canónica (si no un 301 de forma directa) desde las URLs secundarias a la principal. Mas sabemos que esto no es siembre fácil...
Sin embargo: ¿Sabías que ante duplicados internos Google elige casi siempre y en todo momento la URL que esté en el sitemap.xml? Lo indican ellos mismos en su documentación, mentando que es un posible sustituto de etiquetas canonicas. Para esto solo tenemos qu etner un sitemap bien hecho, en el que evitemos incluir ninguna etiqueta que tenga riesgo de ser canibalizada. Esto es, en estos casos en los que varias URLs tienen exactamente el mismo contenido o apuestan por la misma Keywrod nos basta con solo incluir la URL principal en el sitemap para que esta sea la que muestre Google en sus resultados. Salvo que por enlaces recibidos nuestra elección de URL principal no tenga ningún sentido (por ejemplo: le señalamos una URL sin links internos dejando fuera a la URL que se enlaza desde todos y cada uno de los menús) Google nos hará caso.
No nos engañemos, esto no es como un canonical: No traspasa autoridad y ni tan siquiera tenemos garantías de que nos haga caso siempre (bueno, con los canonicals tampoco) pero es una vía secundaria que tener en cuenta cuando tenemos esta clase de limitaciones.
Dado que los Sitemaps.xml son finitos (tienen peso y URLs máximas) tuvieron que idear una forma por las que despiezarlos en distintos ficheros. Para poder hacer eso hay un tipo del archivo sitemap de índice. Son ficheros en los que podemos apuntar otros ficheros sitemap. Las ventajas son claras: subimos un único archivo y desde este controlamos todos y cada uno de los que ofrecemos realmente a Google automatizando su fragmentación.
Y es que al final intentar centralizar todo el sitemap en un único archivo tiene muchos riesgos:
Lo mejor es que para cada concepto, sección, lo-que-sea de la página web creemos un sitemap diferente y empleemos estos índices para organizarlo todo.
Crear un índice es fácil y, solo debemos señalar una rama "sitemapindex" donde podemos incluir elementos "sitemap" que tienen su localización y de forma opcional su última modificación con "lastmod" (al que aplicaríamos exactamente los mismos comentarios que al lastmod de las URLs).
Uno de los mejores indicadores que nos dan los sitemaps cuando los subimos vía Google Search Console es el estado de indexación de la lista de URLS que les pasamos en ellos. Esto lo hace para cada sitemap: lo subimos y al poco tiempo ya nos afirma para cada uno de ellos cuantas URLs contenía y de ellas cuantas ha indizado. Solo tendremos que dividir una cantidad sobre la otra para saber el porcentaje de indexación de dicho sitemap.
Pensando un tanto sobre esto no es difícil llegar a la conclusión de que no deseamos subir sitemaps enormes a nuestro site: lo propio es que subamos siempre un indice que apunte a una colección más o bien menos grande de sitemaps.xml parciales del site. ¿Cuantos? depende de cuanta información desees verdaderamente recoger.
Por cada sitemap.xml fragmentado que creemos, vamos a tener un nuevo grupo de URLs del que conocer el estado de su indexación. Así que a mayor cantidad de información que queramos saber sobre la indexación del site más deberíamos fragmentar los sitemaps para conocerla. Esta es una técnica mínimamente conocida mas que incluso sabiendola se utiliza poco y se aplica sin pensar demasiado en ella:
Os pongo 2 ejemplos para que queden claro.
Imaginad que tenemos un blog del que subiremos los sitemaps.xml fragmentados en distintas piezas para conocer el estado de indexación de cada género de página. Una fragmentación básica nos haría crear los próximos sitemaps:
- Home.xml
- categorías.xml
- tags.xml
- Posts.xml
Con esto podremos saber que porcentaje de cada género de página tenemos indexado. Probablemente si el weblog tiene un buen tiempo y poco seo técnico nos encontraremos con que cada tipología de contenido tiene gran cantidad de URLs sin indexar.
Y esto esta bien saberlo pero si solo vemos este tipo de cosas no podremos activarlo, no sabemos que hacer para progresar estas situación y no tenemos nada que hacer con esta información. Este suele ser el problema.
Ahora pensemos en aplicar a nuestra fragmentación del sitemap una lógica posicionamiento SEO. Pensamos en cada tipología de página, como puede ser su problemática de indexación. Por servirnos de un ejemplo, escogemos los posts, donde vemos el mayor porcentaje de contenido no indizado, los examinamos y vemos que probablemente se trata de un problema de anigüedad: a mayor antigüedad del blog post más pensamos que se habrá desindexado... Así que hacemos nuestra fragmentación del sitemap buscando obtener información justo por este criterio y en lugar de subir un único sitemap de blog post subimos la próxima colección:
- posts-novedad.xml -->Indexación 90 por ciento
- artículo-último-mes.xml -->Indexación 100 por cien
- posts-dos-meses.xml -->Indexación noventa y ocho por ciento
- post-3-6meses.xml -->Indexación ochenta y nueve por cien
- posts-7-doce-meses.xml -->Indexación 50 por cien
- post-1-2-anos.xml -->Indexación cincuenta y cinco por ciento
- posts-2-tres-anos.xml -->Indexación cincuenta y siete por ciento
Etc...
La cantidad de indexación de cada uno de ellos de estos sitemaps si que es un dato accionable. Puedo encontrarme con que a partir de los seis meses comienzan a perder la indexación y descubrir que tengo inconvenientes de rastreo profundos. O que los posts de hace más de 5 años siguen indexados pero los presentes no se indexan tan bien (probando un problema de autoridad y de calidad del contenido)...
Se pueden hacer muchas estrategias de este género. Aun jugar a cambiar el patrón por el que dividimos estos sitemaps. Piensa por poner un ejemplo en pasar screaming frog, sacar las URLs por distancia de rastreo desde la home y subir un sitemap temporal según distancia de rastreo para ver desde cuantos saltos comienza a sufrir la indexación. Sacamos el dato, lo activamos y luego volvemos a usar los sitemaps de siempre y en todo momento...
Otra opción es simplemente hacer seguimiento, apuntar estos datos cada seemana y así observar como mejora o empeora la indexación por zonas de la página web.
Alguno habrá arqueado la ceja al leer este título... Y es que esto es extraño mas tiene grandisimas ventajas sobre todo si llevas el posicionamiento web en buscadores desde fuera de la web (como autónomo, agencia, consultoría, etc. Jamás os recomendaría alojar el sitemap general de vuestro site en otro dominio diferente al del propio site pero para determinadas acciones y pruebas viene realmente bien tener la posibilidad de poder ir haciendo subidas sin molestar a los desarrolladores de la página web. Pensad solo en muchas de las posibilidades que hemos comentado en este post y veréis que tener un espacio donde no depender de IT para subir algunos sitemaps bajo tu control te va a permitir realizar más acciones (o bien cuando menos de forma más rápida) de esta clase.
La idea es sencilla: a parte de los propios sitemaps de la página web deseo tener la posibilidad de subirle sitemaps que no se alojen en ese dominio. ¿Dpnde se alojarán? Pues en un dominio mio, uno en el que no dependo de IT y puedo apresurar ciertas acciones mientras IT responde a las guías y funcionales que les hemos pasado.
Para esto hay varias opciones:
A. Emplear los sitemaps para sites multiples
Esto estáy basicamente nos deja subir el sitemap de un dominio de la manera normal, solo que indicándole en el sitemap URLs de otros dominios.
Para esto básicamente tenemos que hacer que el usuario que suba el sitemap.xml sea
ADMINdel Google Search Console de los 2 dominios. Así que en realidad nada impide que creemos un dominio estúpido (sitemaps-seo.midominio.com) lo demos de alta en GSC y en el subamos nuestros propios sitemaps.xml para nuestros clientes del servicio, siempre que nos hayan dado privilegios sobre sus GSCs.
B. Señalar el sitemap.xml en el robots.txt ya de forma directa apuntando a otro dominio
Este es otro recurso documentado aun en la propia documenación documentación de los sitemaps.org. Ahi nos afirman que podemos incluir en la indicación "sitemap: " del fichero robots un sitemap sin que importe que se encuentre o bien no en el dominio indicado.
Es decir que si en midominio.com dispongo de un robots.txt que termina con las próximas lineas:
Leerá los dos. Si sumamos esto a que estos sitemaps pueden ser indices que controlan donde leer cada archivo ya tenemos un mecanismo afín al de Google Search Console.
Que todo esto tiene sus peligros, como es natural, pero bien hecho es una puerta nueva que no hay que desperdiciar solo porque nos de temor utilizarla.
Por último y con una utilidad muy práctica si lo ligamos al punto precedente (de subir sitemaps por tu cuenta) tenemos una vieja técnica que se fundamenta en subir sitemaps.xml para forzar su rastreo. Es sabido que al ir haciendo actualizaciones de los sitemaps las URLs que ahí se poseen terminan tarde o bien temprando siendo visitadas, mas esto es en general aún más rápido (aunque tampoco será inmediato) si lo que hacemos es subir sitemaps nuevos.
Así que tenemos una herramienta (la subida de nuevos sitemaps) que nos deja crearle a Google listas de URLs pendientes de rastrear y que nos puede venir realmente bien sobretodo a veces en las que por no ofrecer ya links a estas páginas o bien por tener un rastreo lento no nos acabamos de fiar del trabajo de las arañas.
Os listo algunos de estos casos:
Y bueno, en definitiva, nos ayuda a revisar o procurar agilizar la indexación tras nuestras actualizaciones en la página web. Toda vez que deseemos que las arañas pesen por sitios atípicos por los que generalmente tardarían en pasar una subida puede ponerlas en marcha, jamás será algo exageradamente rápido mas ayudará a que no se eternice.
Como decía, si unimos este punto además al anterior, por el cual podemos subirle a un cliente del servicio sitemaps.xml en nuestro propio dominio, tenemos un sistema de control de la indexación que no afecta al desarrollo de la página web y que nos aportará en determinados momentos el extra que precisamos.
Los sitemaps son unos archivos poquísimo mimados por gran cantidad de SEOs. Como son fáciles de delimitar y no lanzan grandes dificultades más allá de lograr el propio listado de URLs para muchos el trabajo queda ahí. Incluso como decíamos al comienzo es una zona que mucha gente termina cuidando tan poco que hacen más mal que bien...
Sin embargo son una herramienta que trabajadas al detalle pueden ser un gran aliado tanto para progresar nuestra indexación, para hacer un análisis de la indexación o para sustituir distintas carencias técnicas del posicionamiento en buscadores de nuestro site.
El inconveniente con estos archivos prosigue siendo siempre el mismo: la base hay que programarla a fin de que tenga sentido. Los desarrollos a medida no suelen haberlos tenido en cuenta y muchos Content Management System que los desarrollan a través de complementos al hacerlo de forma generica no terminan de ser lo que necesitamos. Solo tras una planificación y definición estratégica adecuadas empezamos a hacer autenticas virguerías con estos archivos. Hay muchos tipos de SEO y muchos estadios de evolución en una estrategia SEO, no creo que esto sea de lo primero a agredir (por complejo) mas si tengo clara una cosa: al hacer un sitemap debemos tomarnos nuestro tiempo y hacerlo bien. SI no vas a mimarlos, mejor no los emplees.
¿Te gustó este blog post? Puedes seguir sus comentarios mediante, o realizardesde tu blog.