Cuando y cómo no indexar y Bloquear URLs

Video explicativo sobre el caso

Parece contradictorio pero si, a veces los SEO queremos esconder contenidos a Google. ¿La pregunta a responder es porqué?

Ryan Gosling Decepcionado GIF - RyanGosling Decepcionado Stressed -  Descubre & Comparte GIFs
Google no pierdas el tiempo mirando mi basura

¿Porqué poner URLs en Noindex o Bloquear por Robots.txt?

  1. Mejorar nuestro Crawl Budget (Rastreo) cómo consecuencia de reducir el numero de páginas para hacer peticiones.
  2. Mejorar la Calidad de nuestras páginas indexadas del Sitio y nuestro E.A.T. Para así no disponer de páginas con poco contenido (thin content), Contenido duplicado y en definitiva contenidos que no responde a ninguna intención de búsqueda y Google esta invirtiendo recursos en rastrearlo y analizándolo para su indexación.
  3. Priorización de indexación de URLs enfocadas a palabras clave de negocio.
https://developers.google.com/search/blog/2017/01/what-crawl-budget-means-for-googlebot#crawl-demand

Atención: También se relaciona las canibalizaciones SEO pero se suelen rectificar de varias formas además de noindex o canonicals.

Criterios para no indexar una URL

Introducimos (noindex, canonicals a otras URLs) ya que nuestro objetivo es que Google indexe todas nuestras páginas orientadas a intenciones de búsqueda las demás introduciremos la meta etiqueta no index para tener una calidad del sitio a los ojos de Google mayor y cómo consecuencia aumentar nuestra frecuencia de rastreo y tiempo de dedicación analizar y ponderar nuestro site.

  • Páginas que NO cubren ninguna intención de búsqueda pero queremos que GogoleBot las visite para seguir sus enlaces con frecuencia.
  • Páginas con Thin Content (Sin Contenido) o SOFT 404 que no haya la posibilidad de aumentar los contenidos.
  • Contenido duplicado, Validar que las fichas de producto que se indexan tienen contenidos Originales, de lo contrario la recomendación será introducir no index.
  • Páginas creadas automáticamente y que no cubren ninguna intención de búsqueda.

Artículos relacionados que te pueden interesar:

Particularidades Sitemap.xml

  • NO enviar URLs con noindex en SITEMAP
  • SI enviar URL con canonical hacia otras URLs

Paginaciones de Listados (Categorías de productos, Categorías de Blogs)

  • Poner en index cada una de las páginas con canonical a sí mismas
  • Implementar Rel=”next” | Rel=”prev”

En definitiva todas las URLs que se indexen en nuetra web deberían cubrir una intención de búsqueda en específico.

Criterios para Bloquear una URL

El objetivo de Bloquear URL a través del Robots.txt es permitir a Google solo rastrear esas URLs de importancia, este factor es importante para páginas con más de 10K URLs.

Aquí teneis información detallada del blog de google: Guía para propietarios de sitios web grandes sobre cómo gestionar el presupuesto de rastreo

  • Páginas que no cubren ninguna intención de búsqueda y no queremos que Google invierta tiempo en ellas.
  • Páginas de gestión de eCommerce.
  • Páginas privadas
  • Páginas automáticas con parámetros: Filtros, Búsquedas, Etiquetados y entre otros.

Documentación SEO

Referencias de fuentes oficiales de Google y la comunidad SEO que siempre encontrareis en mis post 😀

PODCAST RELACIONADOS

Podcast relacionados sobre la temática de rastreo e indexación:

https://open.spotify.com/episode/5zFbV33VyZnllF5OhIUdOd?si=Xrs_zshyRyC_hx-4MG9R3A
https://open.spotify.com/episode/3d742jRKxheFXrAWJqvofD?si=iWYUd-S7Q5GESE73n259Eg

💡 RECIBE LOS CASOS PRIVADOS REALES DE SEO DE LA COMUNIDAD EN TU CORREO 💡

Índice de Contenidos
Josep Deulofeu
Josep Deulofeu
Consultor SEO apasionado del mundo del eCommerce. El SEO, Google Ads, la Analítica Web y la creación de tiendas online con socios son los medios dónde me puedes encontrar y en mis ratos libres cuando hay olas en la Fosca o Griells haciendo surf o leyendo un buen libro :)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos Recientes del Blog