Biblioteca de temas de Linux - Qué es y como se utiliza correctamente el robots.txt

Imágen de perfil

internetQué es y como se utiliza correctamente el robots.txtgráfica de visualizaciones


Linux

estrellaestrellaestrellaestrellaestrella
estrellaestrellaestrellaestrella
estrellaestrellaestrella
estrellaestrella
estrella
Publicado el 08 de Mayo del 2013 por Administrador
10.630 visualizaciones desde el 08 de Mayo del 2013. Una media de 42 por semana
Buenos si eres nuevo en estos asuntos te estarás preguntando. ¿Que es esto de los robots?. Bueno te lo explicare brevemente.
El o los Robots, “los que funcionan en la web” es una herramienta automatizada por los buscadores que pasa constantemente por los sitios, páginas, blogs etc.. recopilando información o comprobando si ha habido algunos cambios recientemente para validar la información.
Los robots (robots) pueden acceder a cualquier página o contenido sin tener que dar el permiso siempre y cuando este sitio esté indexado en los buscadores. Pero tranquilo esto se puede controlar si creamos un archivo robots.txt que estará en la raíz de el sitio, escribir algunas reglas sencillas que le ayudarán a controlar lo que hacen los robots en su sitio, ya que con esto controlaremos contenido y también lo que entra en el sitio. Seria algo así como el Vigilante de un bar con una lista de invitados permitiendo la salida y entrada de las personas, bueno así pero con la información de tu web.

Forma parte de Tutos y Tips
 
  • Links de descarga

Si alguno de los archivos de descarga no funciona, comentanos aquí el error.




Comentarios... (0)


No hay comentarios
 

Comentar

Nombre
Correo (no se visualiza en la web)
Valoración
Comentarios
Es necesario revisar y aceptar las políticas de privacidad

http://lwp-l.com/t6854  
Revisar política de publicidad