黑客

怎么收集某个网站的信息

2019-6-23 17:01:51

在检测某个网站时需要尽量的收集该网站有用的信息,那该怎么做呢?下面我们给出了一个完整的收集网站信息的框架

1、收集子域名

  • 子域名收集
    • CSP规则中获取
    • 子域爆破
    • PassiveDNS
    • 利用兄弟域名查询流程
      • 查询域名注册邮箱
      • 通过域名查询备案号
      • 通过备案号查询域名
      • 反查注册邮箱
      • 反查注册人
      • 通过注册人查询到的域名在查询邮箱
      • 通过上一步邮箱去查询域名
      • 查询以上获取出的域名的子域名
    • 利用域传送漏洞
    • SSL/TLS证书中可能会有多个域名的信息
    • DNS记录中的SPF记录
  • 若目标使用cdn,绕过cdn找到ip

2、收集站点信息


  • 判断网站操作系统
    • Linux大小写敏感
    • Windows大小写不敏感
  • 扫描敏感文件
    • robots.txt
    • crossdomain.xml
    • sitemap.xml
    • xx.tar.gz
    • xx.bak
  • 确定网站采用的语言
    • 如PHP / Java / Python等
    • 找后缀,比如php/asp/jsp
  • 前端框架
    • 如jQuery / BootStrap / Vue / React / Angular等
    • 查看源代码
  • 中间服务器
    • 如 Apache / Nginx / IIS 等
    • 查看header中的信息
    • 根据报错信息判断
    • 根据默认页面判断
  • Web容器服务器
    • 如Tomcat / Jboss / Weblogic等
  • 后端框架
    • 根据Cookie判断
    • 根据CSS / 图片等资源的hash值判断
    • 根据URL路由判断
      • 如wp-admin
    • 根据网页中的关键字判断
    • 根据响应头中的X-Powered-By
  • CDN信息
    • 常见的有Cloudflare、yunjiasu
  • 探测有没有WAF,如果有,什么类型的
    • 有WAF,找绕过方式
    • 没有,进入下一步
  • 扫描敏感目录,看是否存在信息泄漏
    • 扫描之前先自己尝试几个的url,人为看看反应
  • 使用爬虫爬取网站信息
  • 拿到一定信息后,通过拿到的目录名称,文件名称及文件扩展名了解网站开发人员的命名思路,确定其命名规则,推测出更多的目录及文件名