Cómo usar Robots.Txt para bloquear subdominios

Un sitio web es una buena manera de promover su pequeña empresa, así como de mostrar sus productos y calificaciones únicas. Si administra un sitio web grande, es probable que use algunos subdominios y cada subdominio tiene su propia carpeta en su servidor web. Si no desea que los rastreadores de motores de búsqueda analicen e indexen ciertos subdominios, puede usar el archivo robots.txt para bloquearlos.

1.

Haga clic en el botón Inicio en la esquina inferior izquierda de su pantalla.

2.

Escriba "Bloc de notas" en el cuadro de búsqueda en la parte inferior del menú Inicio.

3.

Haga clic en "Bloc de notas" en la sección Programas en la parte superior del menú Inicio para iniciar el Bloc de notas. Un nuevo documento se crea automáticamente en el Bloc de notas.

4.

Inserte estas dos líneas en el documento del Bloc de notas para evitar que todos los robots analicen el subdominio:

Usuario-agente: * No permitir: /

5.

Presione "Ctrl-S" para abrir la ventana "Guardar como".

6.

Escriba "robots.txt" en el cuadro "Nombre de archivo", seleccione una carpeta donde desee guardar el archivo y haga clic en "Guardar" para guardarlo.

7.

Cargue el archivo robots.txt que guardó en el directorio raíz de cada dominio que desea proteger de los rastreadores de los motores de búsqueda. El directorio raíz es el directorio de nivel superior.

Propina

  • Puede cargar el archivo utilizando cualquier software de cliente FTP o incluso el administrador de archivos web de su host.

Entradas Populares