Web安全中的信息收集

Door Lv1

这个地方用于存放Web CTF需要用到的信息收集技术

总述

信息收集,很好,所以我们需要收集什么?

如果我们收集的只是信息那就没法继续了,我咬打火机都是一个比收集信息更加具体的行为,至少我可以从咬打火机这个动作中知晓打火机油的味道,打火机外壳的硬度……还有打火机爆炸的热量。

所以,所谓信息收集,是指搜集有价值的信息,可以协助网络安全从业人员降低攻击面不确定度,以保证他们能在和防守方的下一轮猜拳中获得先手优势。

而对于Web,我们能够接触到的攻击面包括网页应用和通信流量,通常情况下我们需要根据这两个方面的信息进行payload的构造。

为了掌握网页应用的逻辑,获取其源代码是最优的途径,如果没有,那这就只能进行黑盒测试

为了掌握数据流量的逻辑,直接抓取一个现成的数据包进行分析是最优的途径,如果没有数据包,分析个锤子?

已知攻击者无法直接杀入目标的Shell,说明攻击者致力于从消费者的角度去推测生产者的行为,以下的试探方式均从这个角度出发。

信息收集无非就是一个盲人摸象的过程,只不过这个大象是个确定面数的多面体,盲人也都是可持久化存储记忆的超人,还真就一个可让人摸透了

网页架构获取

首先,攻击者作为消费者生产者只会以满足消费者需求为前提,尽量提供最小的服务。若是在正常的网页应用浏览环节,我们通常情况下只能得到一个文件为主线,其他依赖并行的服务,而这个网页应用结构的全貌我们仍然不得而知。为了降低不确定性,对目标网址进行搜索很有必要。

而注意到目标网址受限于http文件协议以及ASCII规则,在时间无限的情况下,我们可以穷举出每一个目标文件的路径。而当目标文件路径不存在时,受到协议限制,它们只能发送,我们只能收到404的状态码。

因此,可以考虑编写脚本实现对目标网站的批量扫描,同时注意到网站通常具有安全策略,我们需要限制对目标站点的穷举式请求,以避免被目标网站视为DDoS攻击从而导致我方IP被防火墙封杀。

具体工具上推荐dirsearch,这是一个用Python编写的批量脚本,可以满足上方的所有要求。

通信流量分析

首先,只要能确立通信,那通信的协议对通信双方就是公开的,相互之间的流量就是可以解析的。由于已经确定可以进行攻击,因此攻击方必然可以截获到通信的流量,无论目标是否有做和时间相关的防重放机制

而我们则可以通过通信流量的协议和正文完成对数据交换规则更加细致的分析,结合网页应用逻辑达到我们想要的目的。

如果是一个初学者,从原理角度开始学习,则我们会倾向于使用命令行的方式从最原始的文本角度完成这个问题。但如果是一个参赛者的角度,为了降低和队友之间交流的难度,我们通常会使用可视化更加丰富的工具。

具体工具推荐BurpSuite,Proxyman,Charles以及CURL,它们都是通过模拟浏览器代理以实现对数据的抓取。

只不过,CURL更多是模拟浏览器抓取数据,而其它的工具可以更加方便的对数据包进行拦截和修改。

当然,如果你动手能力够扎实,直接网页上按F12,录制网络请求去调试也没问题的。这效果也没差。

同时也是为了避免来到新的环境发现工具没配齐的尴尬,Writeup尽量也不会去用太专一化的工具。

  • 标题: Web安全中的信息收集
  • 作者: Door
  • 创建于 : 2025-04-03 21:27:56
  • 更新于 : 2025-04-04 14:51:59
  • 链接: https://chenshi.club/posts/97f152a0.html
  • 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。
目录
Web安全中的信息收集