Qué proceso pasa una URL antes de llegar a los buscadores

|indice-gogle-infografia|proceso pasa URL antes llegar buscadores infografia

¿Sabes qué proceso pasa una URL antes de llegar a los buscadores?, en www.posicionamientoweb.systems te lo explicaremos. Como expertos en Posicionamiento Web Systems entendemos que antes de que una página aparezca en los resultados de búsqueda debe ser rastreada e indexada. Si los motores de búsqueda no encuentran el sitio estarás perdiendo el esfuerzo que haces en posicionamiento web.

Qué proceso pasa una URL antes de llegar a los buscadores

Los motores de búsqueda como Google tienen una enorme base de datos donde aparecen las páginas disponibles en internet. Cuando buscamos un término, Google revisa su índice y nos muestra los resultados que están relacionados con este.

Pero de qué manera llega una página a ese índice, cómo indexa Google una URL. Lograr estar en la base de datos de los buscadores y conseguir un buen ránking es el objetivo de cualquier estrategia SEO. Para alcanzarlo hay que entender tanto el trabajo del buscador como los factores internos del sitio que permiten que Google nos encuentre, indexe y otorgue un buen posicionamiento.

Rastreo de la URL

¿Te has preguntado cómo hace Google para saber que tu sitio existe o si agregaste una página nueva. Si estás familiarizado con el SEO sabes que se lo puedes decir tú mismo a través del sitemap. Pero el propio buscador te puede encontrar a través del trabajo de rastreo que hace en la web.

Google tiene una serie de programas rastreadores que se mueven a través de las páginas web. Las analizan, identifican el contenido nuevo, siguen los enlacen y los clasifican. A partir de esta información elaboran la base de datos. Los programas son conocidos como robots de Google o Googlebots.

Los Googlebots «viajan» de un enlace a otro, navegando por el contenido como lo haría un usuario. A medida que lo hacen recopilan toda la información que pueden de cada página y la envían a los servidores de Google.

El rastreo de páginas web comienza siguiendo la lista de direcciones de rastreos anteriores, así como la información que proporcionan los webmasters a través de sitemaps. La frecuencia y el número de páginas a revisar en cada sitio, van determinadas por los programas.

Hacer que nuestro sitio sea visible para los robots es el primer paso para lograr ser indexados. Es posible controlar el acceso de los bots a las páginas de tu sitio. De esta manera le puedes indicar qué contenido quieres que aparezca en los resultados y cuáles no.

Problemas de rastreo

Los propietarios de un sitio web tienen la opción de controlar el acceso de los Googlebots a través de las herramientas de Google y el archivo robots.txt. Si todo el contenido puede aparecer en los resultados de búsquedas no tienes que girar ninguna instrucción especial y puedes dejar el archivo en blanco.

Si decides bloquear el acceso a alguno o todos los bots, debes ser cuidadoso al crear el archivo, identificando bien en user-agent y la instrucción que quieres generar. Una instrucción errónea puede evitar que rastreen todo el sitio. Por lo tanto, no será indexado en la base de datos.

Los bots revisan los permisos de acceso cuando llegan a un sitio, evitando analizar las páginas y seguir los enlaces que le impidas a través del archivo.

Otro problema de rastreo surge cuando hay enlaces rotos. Estos enlaces llevan a páginas o documentos que no existen, afectando la experiencia del usuario y evitando que los bots rastreen el sitio.

Los robots, también conocidos como arañas, identificarán un sitio que tiene enlaces rotos como spam. Por lo tanto debes analizar con frecuencia tu sitio, buscando los posibles links rotos en él. Hay herramientas como Screaming Frog SEO Spider que te ayudarán a identificarlos.

Indexación de la URL

La indexación es el proceso en el cual la información de una página es incluida en la base de datos de los motores de búsqueda. Esto es luego de que los bots la han rastreado y clasificado su contenido.

El tiempo que tarda Google en indexar una web varía de un sitio a otro. Algunos de los aspectos que se toman en cuenta son la antigüedad del dominio, calidad de los enlaces entrantes, número de visitas, velocidad de la web, calidad del contenido, estructura de la web, entre otros.

Es posible realizar una serie de acciones para facilitar la indexación. Si agregas una página nueva, por ejemplo, enlaza a ella desde otra que ya está indexada, así los robots la encontrarán más rápido.

Crea un sitemap y actualízalo cada vez que hagas un cambio en el sitio. Cuando tengas una URL nueva enviala a Google Search Console para disminuir el tiempo que tardarán los bots en encontrarla. Otras acciones que te ayudarán a indexar más rápido son actualizar el contenido con frecuencia, compartirlo en redes sociales, registrarte en directorios, entre otros.

indice-gogle-infografia

Fuente infografía

Problemas de indexación

Hay ocasiones en las que las URL no se indexan aun cuando pueden ser rastreadas por los bots. Estos problemas de indexación hacen que nuestros esfuerzos para conseguir un buen posicionamiento SEO sean en vano. La lógica es sencilla, si no estamos en el índice de Google, no apareceremos en las búsquedas.

Puedes tener enlaces o haber enviado el sitemap al buscador, pero un mínimo error es capaz de derrumbar la estrategia. Veamos cuáles son algunas de las fallas más comunes:

  • Uso erróneo de la etiqueta hreflang

Hreflang es una etiqueta que se usa para el SEO internacional. Se implementa en los sitios multi-idiomas para indicar el idioma, país o región al que va dirigido. Se puede colocar con un enlace HTML, en la cabecera http o en el sitemap.

Implementar esta etiqueta tiene muchos detalles que pueden hacer cometer un error involuntario. Y si esto sucede puede llegar a ser muy perjudicial. Esto podría confundir a los robots de Google y no sabrían qué página deben indexar. Algunos errores frecuentes, de acuerdo a un estudio de SEM Rush son código del país o del idioma erróneo, uso del guión bajo en vez del guión u orden incorrecto de los valores.

  • Robots.txt: disallow

Los errores en el fichero robots.txt también pueden impedir la indexación de una URL, por ejemplo una instrucción incompleta. Por ejemplo, si colocas el comando Disallow: / bloquearás el acceso de los robots a todo el sitio.

  • Redireccionamieto y enlaces rotos

Las redirecciones son otro tema delicado cuando hablamos de indexación. Estas se usan para indicar a los buscadores la URL correcta a la que se va a acceder. Las redirecciones 301 indican un redireccionamiento permanente. Al utilizarla, el usuario puede ingresar a la página correcta aun cuando indique una dirección distinta.

Las redirecciones 301 se utilizan cuando se traslada la web a otro dominio de forma permanente. En cambio las redirecciones 302 se utilizan para indicar un cambio temporal. En Bing, por ejemplo, no se indexan las páginas que tengan redirecciones 302.

Los enlaces rotos, como mencionamos, son otro problema porque obstaculizan la navegación.

  • Etiqueta rel:»canonical»

Cuando en un sitio tienes varias páginas iguales o muy similares entre sí puedes usar el elemento canonical para evitar ser penalizado por contenido duplicado. Lo que haces es identificar cuál de esas páginas es la que tiene prioridad en los buscadores.

Algunos de los errores frecuentes en el uso del rel=canonical son apuntar a la primera página de una serie, usar URL incompletas, no cambiar la ruta de la etiqueta, utilizarla en el cuerpo de la página y no en el, tener varias copias de la etiqueta y no apuntar a las páginas de categorías.

Otros errores de indexación

Otro error que estaría haciendo que una URL no se indexe en los buscadores es el uso incorrecto del archivo .htaccess. Hay que cuidar que no tenga errores de sintaxis, redirecciones infinitas o hacia páginas que no nos interese indexar, por ejemplo.

Códigos de programación como Javascript, Flash, Frames también impiden la indexación porque los contenidos programados con estos lenguajes son inaccesibles para los robots. Por lo tanto no se indexan.

¿Aparece tu URL en los motores de búsqueda

Si has cuidado todos los detalles que hemos hablado hasta aquí, la URL debería aparecer en la página de resultados de los motores de búsqueda. Es posible que tarde un tiempo en aparecer. Si notas que no aparece, utiliza las herramientas disponibles para verificar que no haya ningún problema de rastreo indexación.

Pero si la página está indexada y aun así no aparece el problema puede ser falta de optimización. Este es el momento de comenzar a revisar tu estrategia SEO para asegurar que llegarás hasta las primeras posiciones del buscador.

Algunas de las técnicas que te ayudarán a mejorar el posicionamiento son las siguientes:

Utiliza URL amigables, evitando números y caracteres especiales. Además incluye las palabras claves por las que quieres que el contenido de la página sea encontrado. Por ejemplo, si tienes un sitio web de viajes y quieres indexar una nueva página sobre destinos populares, la dirección podría quedar de la siguiente manera: http://www.viajes.com/destinos-populares.html

Optimiza el contenido, incluyendo las imágenes. Escribe contenido que sea amigable con el SEO y actualizalo con frecuencia. Puedes agregar un blog a tu sitio web para publicar contenido relacionado con la industria en la que te manejas.

La optimización del contenido incluye los elementos visuales. En las imágenes, por ejemplo, recuerda incluir el texto alternativo y la descripción para que los robots puedan identificar el contenido de la misma.

Completa los meta datos. Las etiquetas title y descripción son las que le dirán a Google lo que encontrará en una página específica. Además, es lo que se le muestra a los usuarios que hacen una búsqueda. Asegúrate de completar estos datos y, como en los casos anteriores, recuerda incluir en ellos las palabras claves que deseas posicionar.
Si tienes algún problema para posicionar tu sitio web, pide presupuesto gratis y con gusto te ayudaremos a llegar a los primeros lugares de Google.

Esperamos que hayas entendido que proceso pasa una URL antes de llegar a los buscadores. Cuando queremos posicionar un sitio debemos ser detallistas y cuidar que no cometamos ninguno de los errores mencionados porque podría costarnos muy caro.

proceso pasa URL antes llegar buscadores infografia

Fuente infografía

marelys.torres@jesuslopezseo.com | + posts