关于robots.txt暴漏网站结构问题怎么解决?

    关于robots.txt暴漏网站结构问题怎么解决?一般通过robots.txt大概可以判断所用程序,因此,我们需要对robots.txt处理一下,屏蔽一些文件,不要带上敏感目录,如下:

    User-agent: * 
    Disallow: /*.jpg 
    Disallow: /*.gif
    Disallow: /*.png
    Disallow: /*.asp
    Disallow: /*.csv
    Disallow: /*.pptx
    Disallow: /*.ppt
    Disallow: /*.shtml
    Disallow: /*.ico
    Disallow: /*.js$
    Disallow: /*.css$