Get Mystery Box with random crypto!

​​ Hoy es #ThurSEO asi que...¡Hablemos de SEO! con @AitorCisc | Canal Growth Hacking

​​ Hoy es #ThurSEO asi que...¡Hablemos de SEO! con @AitorCiscar

Hoy hablamos de Google y de cómo rastrea lo que tenemos en la web.

Ya hablamos hace un tiempo sobre esto pero... ¿Qué es el SEO sino hablar de lo mismo una y otra vez pero con matices y puntos distintos?

Vamos a por lo básico: una web es una carpeta con muchos archivos dentro. Hay archivos de todo tipo y google cuando rastrea una web para ver de qué va y si puede ser interesante o no lo que hace es ir a los archivos que hay en esa carpeta. Una vez ahí selecciona entre lo "interesante y lo que no lo es" pero muchas veces mete la gamba e indexa lo que no toca.

Pero otras muchas veces el pobrecito google no tiene claro qué es lo que tiene que indexar y qué es lo que no y el pobre se hace un lío de cojones y hace lo que puede. Es aquí cuando necesita que le echemos una mano.

Para eso sirve el sitemap y los robots (a grandes rasgos).

Sitemap.xml

El sitemap es una página en la que se resume todo el contenido de la web. Básicamente es el esquema del sitio web. Ahí debería aparecer todo lo que hay en la web bien organizadito.

Lo que sucede es que el googlebot consulta el sitemap a ver qué encuentra (luego hará sus más y sus menos pero de entrada toma el sitemap como ruta) por lo que cuando creamos un sitemap debemos poner en él aquello que queremos que vea google y ocultar aquello que no.

En general del sitemap solemos quitar:
tags
categorías
plantillas.elementor
imagenes

Y por lo tanto se suele quedar únicamente:
páginas que consideremos que deben estar (por ejemplo las políticas quitamos)
entradas
productos si consideramos que es importante
todo lo que realmente digamos "esto quiero que lo vea google".

Este punto es importante porque a veces cambiando el sitemap una web ya mejora.

Robots.txt

El robots es como el portero de una discoteca. Si quieres salir de fiesta buscas (no lo hace nadie pero lo puedes hacer) discotecas en google maps. En el mapa aparece y dices, mira vamos a ver esta discotecta y ahí te encuentras un portero que es quien decide si puedes entrar o no. Los robots es justamente eso, deciden si el google bot (u otros bots) pueden entrar a ciertas páginas o no.

Generalmente en el robot se suelen poner aquellas páginas a las que no quieres que el robot entre.

¿Pero dónde no quiero que entre el robot? ¡Yo lo que quiero es que navegue por toda la web!

A google hay que aportarle valor, las páginas con códigos, elementos, galerias, comentarios, uploads, tags, variables, avisos legales, etc. Eso no aporta nada y puede no sólo ensuciar las serps sino terminar generándonos problemas raros de index.

Ok, ¿y todo esto cómo se gestiona?

Super fácil. Lo puedes gestionar TODO con Rankmath. Así de fácil. Rank math es la solución a todo este tipo de cosas. Pruébalo, que si no lo conoces te gustará :)