由于微信公众号推送机制改变了,快来星标不再迷路,谢谢大家!
对于web层面的信息收集,主要还是子域名、网站目录和网站链接上面。通过子域名的收集,能够有效的获取到更多的站点,而这些站点里面通常又会包含大量不同的链接和信息。再这里面,很容易就能发现 信息泄露、未授权访问等漏洞
我并不认为whois有多么的重要,除非就像朝阳老师说的那个样子,用来猜密码。
https://www.virustotal.com/
这个原理就是利用查看他的病毒检查报告来收集子域名。
在我的认知当中这个就是最好,一秒出货,无需跑字典。
subjs:https://github.com/lc/subjs
通过subjs就能轻松获取到网站中的js链接。很多网站会通过ajax等方式来异步获取数据,提高用户的使用体验,所以在js中通常会藏有不少的链接。我们可以尝试取提取出这些链接信息。
linkfinder: https://github.com/GerbenJavado/LinkFinder
linkfinder是一款自动化分析js中隐藏链接的工具,通过它,我们能够非常轻松的从subjs的结果中获取链接信息
linkfinder除了能够查找js文件中的链接, 它还可以获取网站中的链接:
(-o是保存,有无均可)
这样就省着我点击了。
通过这样的方式,我们能够有效的收集到大量的可攻击目标。
https://commoncrawl.org/
国内有时候不稳定,多刷新。
随便选一个年份
https://bbs.zkaq.cn/robots.txt
https://bbs.zkaq.cn/sitemap.txt
算不算漏洞,我也不知道,反正是通过爬虫分析全站链接帮我找到的。
网页存档:相当于是网站在某个时间点的快照
网页存档网站: http://archive.org/
提供上面一个网站,国内有时候不稳定,多刷新。
在这个网站里面,你可以获取历史的网页站点和js文件,然后再按照上面的方式,去尝试分析里面的文件和链接
★
欢 迎 加 入 星 球 !
代码审计+免杀+渗透学习资源+各种资料文档+各种工具+付费会员
进成员内部群
星球的最近主题和星球内部工具一些展示
加入安全交流群
关 注 有 礼
还在等什么?赶紧点击下方名片关注学习吧!
推荐阅读