Posicionamiento SEO

Google elimina la directiva NoIndex de Robots.txt ¿qué cambia ahora?

Google ha liberado documentación oficial para que los webmasters entiendan mejor el uso del fichero robots.txt.

Estas semanas el micromundo del SEO ha estado convulso, aunque realmente siempre lo está. Se debe especialmente a que Google ha anunciado  «modificaciones» relevantes en Robots.txt. Los dos cambios más significativos nacen a través de la idea de la compañía para crear un auténtico estándar con este fichero y la manera en la que los bots lo comprenden. Eso sumado a la confirmación de que algunas directivas no tienen impacto real en Googlebot.

Una de estas directivas es el noindex dentro del archivo robots. Desconozco por qué alguien seguiría utilizando esto en 2019, pero aún hay sitios que lo implementan. Además, noindex a través de robots.txt no es la única directriz que va a desaparecer.

Cómo estas reglas nunca han sido documentadas por Google, su uso y el cómo afectan a Googlebot es muy bajo. Usarlas crea errores que dañan la presencia de los sitios en los resultados de búsqueda de una manera que creemos que no es intencional por parte de los webmasters.

Cuáles son las opciones para no indexar contenido en robots.txt

Realmente no es que esto haya cambiado mucho, pero con el anuncio de Google muchos falsos mitos sobre el uso de este fichero han caído como un castillo de naipes. Las reglas actuales para no indexar contenido o eliminarlo de los resultados de búsqueda siguen siendo las de siempre:

Utilizar NoIndex en encabezados y HTML

Por lo general y asumiendo que a día de hoy la gran mayoría de usuarios está usando un CMD como WordPress, Joomla, PrestaShop o Magento, esto se hace fácil a través de plugins y complementos como Yoast SEO, All In One SEO Pack y sus homólogos para el resto de gestores de contenido.

En caso de no contar con plugins de SEO o tener un proyecto personalizado, siempre puedes acudir a modificar el código de cada URL para que el encabezado mande la señal a Google.

Noindex mediante htaccess

Tienes la opción de bloquear determinadas URLS o directorios a los bots mediante el fichero htaccess de tu servidor. Quizá esta es una de las mejores soluciones, pero la menos flexible para mi gusto personal. Si definitivamente quieres que Google no indexe de ninguna manera una URL, esta es la mejor opción.

Otras alternativas

También puedes usar los códigos 410 o utilizar la opción Disavow a través de Search Console en caso de que el contenido ya esté indexado. Usa esta última opción con cabeza ya que no es muy recomendable abusar de ello, además siempre es mejor aplicar noindex desde las cabeceras que un Disavow.

La compañía de Mountain View asegura que salvo que indiquemos lo contrario, sigue siendo eficaz proteger con contraseña los contenidos que no queremos que su bot rastree. Lógicamente este último punto depende mucho del contexto del contenido que haya detrás.

El estándar para robots.txt

Cómo decía solo unas líneas más arriba, la gran G tiene intención de que su forma de entender el archivo robots.txt sea un estándar para la web. Tanto es así que han liberado parte de la documentación para que los webmasters puedan aprender algo mejor  sobre cómo se comporta Googlebot al hacer uso del fichero, con ella incluso puedes hacer simulaciones en tu propio servidor local.

Te dejo acceso también acceso a este enlace en donde podrás encontrar la documentación oficial de Robots.txt, pero te anticipo que solo están permitidos los siguientes elementos field:

  • Allow.
  • Disallow.
  • User-Agent.
  • Sitemap.

Si nunca lo has hecho antes, es una lectura recomendada especialmente para entender los niveles de prioridad por grupos y como añadir directorios y URLS.

Entradas recientes

Ya está disponible Dolibarr 18 en su versión estable, estas son las novedades

La Dolibarr Foundation ha liberado la versión estable número 18 de su ERP con muchas…

8 meses hace

Optimizando la Gestión Empresarial: Descubre el ERP + CRM Perfecto para PYMES con Dolibarr

Si tu empresa necesita un ERP con módulo CRM y listo para trabajar en el…

9 meses hace

[MEGA GUIA] Para hacer SEO en Google Shopping

Hoy te enseñamos como puedes optimizar el SEO de tu feed de productos para mejorar…

4 años hace

Conecta tus cuentas sociales con IFTTT

Vamos a enseñaros a conectar tus cuentas sociales y automatizar estados usando la versión gratuita…

4 años hace

Bitrix24, Holded o HubSpot ¿Cuál es mejor CRM?

Bitrix24, Holded o HubSpot son toda una suite de herramientas para aumentar la productividad y…

4 años hace

3 consejos de oro para ser ‘Top of Mind’ en tu sector

Te dejamos con tres consejos que no deberías pasar por alto si quieres ser Top…

4 años hace