Robots.txt文件利用

实验目的

通过本实验,掌握robots.txt文件的的介绍、作用以及利用方法。

实验环境

  • 操作机:Win10
    用户名:Administrator
    密码:Sangfor!7890
  • 靶机:Apache + PHP
  • 实验地址:http://ip/phpok/index.php

实验原理

robots.txt文件介绍

robots.txt是一个简单的以.txt结尾的文本文件,robots.txt文件本身没有什么漏洞。搜索引擎能够通过robots文件能够获知哪些页面能够爬取,哪些页面不能够爬取。但是如果robots.txt文件编辑的太过详细,反而会泄露网站的敏感目录或者文件,好比网站后台路径,从而得知其使用的系统类型,从而有针对性地进行利用。

robots.txt漏洞测试方法

通过使用工具爬虫,对网站敏感文件目录进行扫描,对robots文件进行爬取。或者直接在url链接后添加/robots.txt进行测试。

robots.txt漏洞危害

攻击者可经过发现robots.txt文件,收集网站的敏感目录或文件,从而有针对性的进行利用。

实验步骤

1、登陆”Attack”操作机,打开浏览器,访问http://ip/phpok/
image.png

2、访问http://ip/phpok/robots.txt,检查Web站点根目录下是否存在robots.txt文件,
image.png

3、根据robots.txt文件中的路径,直接在域名后手工一一输入查看效果
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png

4、其中datam目录下有一个install目录,点击进去发现数据库文件,点击下载
image.png
image.png
image.png

5、打开数据库文件查看,找到会员账户的敏感信息
image.png

6、对密码进行MD5解密,可得会员密码信息。比如对会员账户为admin的密码进行解密
image.png

7、在网站首页,点击登录,用获取的用户名密码登录
image.png
image.png

8、登录admin会员账号成功,可以查看admin会员的账户信息。
image.png

实验总结

通过本实验,掌握在信息泄露中,通过Robots.txt文件泄露收集网站的敏感目录或文件,从而有针对性的进行利用。

目录遍历

实验目的

通过本实验,掌握目录遍历漏洞的原理以及危害。

实验环境

  • 操作机:Win10
    用户名:Administrator
    密码:Sangfor!7890
  • 靶机:Apache + PHP
  • 实验地址:http://ip

实验原理

目录遍历也称目录穿越,是一个常见的Web安全漏洞,攻击者可以利用该漏洞可以读取运行应用程序的服务器上的任意文件。这可能包括应用程序代码和数据,后端系统的登录信息以及敏感的操作系统文件。
该漏洞最大的危害是能够让任意用户访问系统的敏感文件,继而攻陷整个服务器。

实验步骤

1、登陆”Attack”操作机,打开浏览器,访问http://ip,返回文件列表信息,说明存在目录遍历漏洞
image.png

2、任意点开文件或者文件夹,发现都可以打开
image.png
image.png
image.png
image.png

3、访问http://ip/include.php,页面一片空白;然后再访问http://ip/include.php?page=,页面仍然空白
image.png
image.png

4、打开桌面的的“Burp”文件夹,双击“BURP.cmd”启动Burp Suite抓包工具
image.png

5、切换到“Proxy”代理模块的“Options”,查看Bp的代理
image.png

6、切换到浏览器,选择火狐插件中的代理(配置浏览器的的代理),与Bp的代理一致
image.png

7、刷新页面,重新发送请求,开始抓包
image.png

8、右键选择“Send to Repeater”或者“Ctrl+R”,将数据包发送到Repeater模块
image.png

9、切换到Repeater模块,利用“…/”构造page参数为“…/…/…/etc/passwd”,/var/www/html/…/…/…/etc/passwd的效果等同于/etc/passwd
image.png

10、点击“Send”,发送构造的数据包,响应包显示/etc/passwd文件内容,实现目录穿越
image.png

实验总结

通过本实验,掌握目录遍历漏洞的的验证方法、漏洞原理、漏洞利用以及漏洞危害,深入了解目录遍历漏洞。