Indexabilidad SEO: Haz que Google te vea

Imagen de Alberto Fernández - Consultor SEO Senior
Alberto Fernández - Consultor SEO Senior

Actualizado el: diciembre 1, 2025

11 min de lectura
Tabla de contenidos

Si tu web no está en Google, no existe. Punto. Puedes tener el mejor producto del mundo o el contenido más brutal, pero si el buscador no puede encontrarte, añadirte a su índice y mostrarte, es como gritar en mitad del desierto. Llevo más de 10 años en el barro del SEO, trabajando con desde pymes de barrio en Madrid hasta e-commerce que facturan millones, y te digo una cosa: los problemas más graves casi siempre empiezan por lo más básico, la indexabilidad.

Muchos se obsesionan con el link building o la creación de contenido sin antes asegurarse de que tienen la puerta de casa abierta para que Google pueda pasar. En este artículo voy a contarte, sin tecnicismos absurdos y con ejemplos del día a día, qué es la indexabilidad, por qué es la base de todo tu SEO y cómo puedes ponerla a punto para que dejes de ser invisible.

Lo que aprenderás en este artículo:

  • La diferencia clave entre rastreo e indexación – Te lo explico de forma sencilla para que entiendas por qué te está costando dinero no saberlo.
  • Los 4 errores técnicos que matan tu visibilidad – Los mismos que veo una y otra vez en mis auditorías, y te enseño a solucionarlos hoy mismo.
  • Mi checklist práctico para auditar tu web – Un método paso a paso que puedes aplicar con herramientas, la mayoría gratuitas, para tener un diagnóstico claro.
  • Cuándo usar noindex y cuándo robots.txt – La guía definitiva para no cometer un error que podría sacar tu web entera de Google.

¿Qué es la indexabilidad y por qué debería importarte más que el café de la mañana?

Vamos al grano. La indexabilidad es, sencillamente, la capacidad que tiene una página de tu web para ser analizada y almacenada en el gigantesco índice de Google. Piensa en el índice de Google como una biblioteca infinita. Si tu libro (tu página) no está en esa biblioteca, nadie podrá encontrarlo por mucho que lo busque.

Ojo, que aquí es donde la mayoría se lía. Hay que entender la diferencia entre dos conceptos que van de la mano pero no son lo mismo.

La diferencia clave: rastreo vs. indexación

Imagina que Googlebot es un bibliotecario con prisa. Su trabajo tiene dos fases:

  1. Rastreo (Crawling): El bibliotecario recorre los pasillos de tu web, siguiendo los enlaces de una página a otra para descubrir todo lo que tienes. Simplemente está «viendo» qué libros hay.
  2. Indexación (Indexing): Después de descubrir un libro (una página), el bibliotecario decide si merece la pena añadirlo a la biblioteca principal. Lo lee, lo entiende, lo cataloga y, si todo está en orden, lo coloca en la estantería correcta para que la gente lo encuentre.

Puedes tener una página que Google rastrea mil veces, pero si por alguna razón has puesto una señal de «no meter en la biblioteca», nunca se indexará. Y si no se indexa, no posiciona. Fin de la historia.

El impacto real en tu negocio (y en tu bolsillo)

He visto casos de clientes que invertían miles de euros en contenido y no entendían por qué no recibían tráfico. Al hacer la auditoría, descubríamos que una mala configuración técnica estaba impidiendo que el 80% de sus nuevas páginas se indexaran. Estaban, literalmente, tirando el dinero.

Una mala indexabilidad significa:

  • Páginas importantes invisibles: Tu página de servicios estrella o tu mejor artículo del blog puede no existir para Google.
  • Pérdida de autoridad: Los enlaces que apuntan a páginas no indexadas no transmiten valor.
  • Desperdicio de recursos: Inviertes tiempo y dinero en crear algo que nadie verá.

Los villanos de la indexabilidad: errores que veo cada día

En mi experiencia, el 90% de los problemas de indexabilidad se deben a un puñado de errores técnicos muy comunes. Son fáciles de cometer, pero también fáciles de solucionar si sabes dónde mirar.

El archivo `robots.txt`: un arma de doble filo

El `robots.txt` es un archivo que le da instrucciones a los rastreadores. Es como el portero de una discoteca: decide quién entra y a qué zonas. El problema es que muchos lo usan mal.

Error común: Usar `Disallow` en el `robots.txt` para intentar que una página no se indexe. ¡Grave error! `Disallow` solo bloquea el rastreo. Si esa página ya estaba indexada o tiene enlaces externos, puede seguir apareciendo en Google (aunque sin descripción), y lo que es peor, Google no podrá ver una etiqueta `noindex` que le pongas después porque le has prohibido el paso.

La regla de oro: `robots.txt` para gestionar el presupuesto de rastreo (evitar que Google pierda tiempo en zonas sin valor), no para controlar la indexación.

La etiqueta `noindex`: el interruptor de «no molestar»

Esta es la herramienta correcta para decirle a Google: «Oye, esta página no la metas en tu índice». Se añade en el `` de una URL y es una directiva clara.

Cuándo usarla: Páginas de «gracias por comprar», resultados de búsqueda internos, versiones para imprimir, carritos de la compra abandonados… En resumen, páginas que no aportan valor en los resultados de búsqueda.

Error común: Dejar una etiqueta `noindex` por error en una página importante después de un rediseño o migración. He visto webs enteras con un `noindex` global que las ha borrado del mapa. ¡Ojo con esto!

Canonicals que confunden a Google

La etiqueta canonical (`rel=»canonical»`) sirve para indicar cuál es la versión «oficial» de una página cuando hay contenido duplicado o muy similar. Es brutalmente útil en e-commerce con filtros o productos con variantes.

Error común: Apuntar la canonical de una página de producto a la página de categoría, o tener canonicals que apuntan a una URL que está redirigida o da un error 404. Esto confunde a Google y puede hacer que ignore tu página buena.

El desastre de los parámetros y la navegación facetada

En tiendas online, es muy común que los filtros (talla, color, precio) generen miles de URLs con parámetros (`?color=rojo&talla=L`). Si no gestionas esto, Google ve miles de páginas casi idénticas y malgasta su tiempo y energía (el famoso «crawl budget») en rastrearlas, dejando de lado las que de verdad importan.

La solución suele ser una combinación de `robots.txt` para bloquear el rastreo de ciertos parámetros y el uso correcto de las etiquetas canonicals.

Mi checklist práctico para auditar la indexabilidad de tu web

No necesitas ser un ingeniero para revisar esto. Con un par de herramientas y un poco de orden, puedes tener una foto clara de la situación.

  1. Paso 1: Google Search Console, tu mejor amigo
    Si no lo tienes configurado, para de leer y hazlo ahora. Es gratis y es la comunicación directa con Google. Ve al informe de «Cobertura» (en la sección «Indexación»). Ahí verás cuatro cubos: Error, Válidas con advertencias, Válidas y Excluidas. Fíjate sobre todo en «Error» y en los motivos de «Excluidas» para encontrar joyas como «Bloqueada por robots.txt» o «Excluida por una etiqueta ‘noindex'».
  2. Paso 2: Un rastreo con Screaming Frog (o similar)
    Screaming Frog es mi navaja suiza para el SEO técnico. La versión gratuita te permite rastrear hasta 500 URLs. Lanza un rastreo y fíjate en la pestaña «Directives». Ahí podrás filtrar y ver al instante todas las URLs que tienen `noindex`, `canonical` o están bloqueadas por `robots.txt`. Es la forma más rápida de detectar un `noindex` perdido.
  3. Paso 3: El poder de un buen `sitemap.xml`
    Tu sitemap es el mapa que le das a Google. Asegúrate de que SOLO contiene las URLs que quieres indexar. Deben ser páginas que devuelvan un código 200 (OK), que no tengan `noindex` y que no estén bloqueadas por `robots.txt`. Un sitemap sucio es como un mapa con carreteras cortadas: inútil.

Herramientas del día a día para controlar la indexación

Para tener todo bajo control, no necesitas un arsenal de herramientas caras. Con estas tres tienes más que suficiente para empezar y gestionar el 99% de los proyectos.

Herramienta Ideal para Coste Mi opinión
Google Search Console Ver cómo Google ve tu web y diagnosticar errores de indexación. Gratis ⭐⭐⭐⭐⭐ No negociable. Es como tener el teléfono directo de Google. Imprescindible.
Screaming Frog SEO Spider Auditorías técnicas profundas, encontrar etiquetas ‘noindex’ y problemas de canonicals. Freemium (hasta 500 URLs gratis) ⭐⭐⭐⭐⭐ La herramienta del SEO técnico por excelencia. La versión gratuita es suficiente para webs pequeñas.
Ahrefs / SEMrush Auditorías de sitio automatizadas y seguimiento continuo de la salud técnica. De pago ⭐⭐⭐⭐ Muy potentes para proyectos grandes, pero para empezar, con las dos primeras vas sobrado.

Mi consejo final: piensa como Googlebot, pero para humanos

Al final del día, la indexabilidad se reduce a una cosa: ponérselo fácil a Google. Tu web debe tener una estructura lógica, sin barreras técnicas que impidan a los buscadores hacer su trabajo. No te obsesiones con trucos complejos si la base no está sólida.

Mi recomendación es que, una vez al mes, dediques 30 minutos a revisar el informe de «Cobertura» de Google Search Console. Es el mejor sistema de alerta temprana que existe. Si solucionas los problemas de indexabilidad, estarás construyendo tu estrategia SEO sobre una base de roca, y no sobre arenas movedizas. Y créeme, eso, a la larga, lo cambia todo.

Preguntas frecuentes que me hacen sobre indexabilidad

Estas son algunas dudas que me plantean mis clientes una y otra vez. Te las respondo de forma directa para que no te queden dudas.

¿Cuál es la diferencia real entre usar `noindex` y bloquear con `robots.txt`?

Es la duda más común. Bloquear una URL en `robots.txt` le dice a Google: «No entres a esta habitación». La etiqueta `noindex` le dice: «Puedes entrar, mirar lo que hay, pero por favor, no le cuentes a nadie que esta habitación existe». Para desindexar contenido de forma segura, siempre usa `noindex` y permite el rastreo en `robots.txt` para que Google pueda ver esa etiqueta.

He publicado una página nueva, ¿por qué no aparece en Google?

Paciencia. Google puede tardar desde unas horas hasta varias semanas en descubrir e indexar contenido nuevo. Para acelerarlo, puedes usar la herramienta «Inspección de URLs» en Google Search Console y solicitar la indexación manualmente. También asegúrate de que la nueva página está enlazada desde otras partes de tu web y en tu `sitemap.xml`.

¿Cómo puedo saber rápidamente si una URL concreta está indexada?

Hay dos formas rápidas. La primera es buscar en Google usando el comando site:tu-url-completa.com. Si aparece, está en el índice. La segunda, más fiable, es usar la «Inspección de URLs» en Google Search Console. Te dirá si está indexada y si hay algún problema.

En Search Console tengo muchas páginas en «Excluidas», ¿es malo?

No necesariamente. Es normal tener muchas URLs excluidas. La clave está en el motivo de la exclusión. Si son páginas con `noindex` que tú has puesto a propósito, o redirecciones, o páginas con canonicals correctas, está todo bien. Preocúpate si ves URLs importantes en categorías como «Bloqueada por robots.txt» o «No encontrada (404)».

Imagen de Alberto Fernández
Alberto Fernández

Tabla de contenidos