前言
近期使用Rust开发了一个基于流水线的AI助手,名字叫Qpipe
,本文将演示我如何使用它来提取历年所有漏洞相关资产的查询语句。
开源链接:https://github.com/Rvn0xsy/Qpipe
最近智谱开放了国内首个大模型免费API接口,我就想着能否用它做一点事情,第一个想到的是把这两年披露的漏洞做一个梳理,就先从网络空间搜索引擎的语法开始。
在特殊时期、特殊渠道被披露的漏洞一般都会有[Markdown]格式的文档来描述漏洞涉及的资产(查询语句),并且附带了PoC的HTTP数据包,因此唯一需要做的就是把文档喂给AI,让AI提取结构化的查询语句。
AI Prompt
1
2
3
4
5
6
7
8
| $ Qpipe -h
Usage: Qpipe [OPTIONS]
Options:
-c, --config <FILE> Sets a custom config file
-d, --debug
-h, --help Print help
-V, --version Print version
|
先将Qpipe下载到本地,然后编写特定的配置文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| model: "glm-4-flash"
api_key: "API_KEY"
url: "https://open.bigmodel.cn/api/paas/v4/chat/completions"
server: "127.0.0.1:3000"
process_group:
- name: "document_search"
cron: "now"
prompt: >
你现在是一个数据提取专家,请在我提供的文档上下文中找出 `Fofa/fofa` 下方的语句, 并总结一个漏洞标题。
按照如下格式输出:
<Title>漏洞标题</Title>,<Fofa>语句</Fofa>
stream: "/path/to/script.py"
|
编写交互Stream
Stream
其实就是和Qpipe
进行通信的脚本,主要处理任务的逻辑都在这个脚本中,原理上就是通过Qpipe
定时启动脚本,Qpipe
会在后台启动一个http服务用来接收数据发送给AI接口,当前只支持智谱。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
| #!/usr/bin/env python3
import os
import requests
import pandas as pd
URL = "http://127.0.0.1:3000"
GROUP_NAME = "document_search"
def send_msg(msg: str) -> str:
response = requests.post(f"{URL}/{GROUP_NAME}", data=msg)
# print(response.text)
return response.headers['Process-ID']
def get_msg(process_id: str) -> str:
headers = {'Process-ID': process_id}
response = requests.get(f"{URL}/{GROUP_NAME}", headers=headers)
# print(response.text)
return response.text
def list_files(path: str) -> list:
files = []
for md in os.listdir(path):
if md.endswith('.md'):
files.append(md)
return files
def get_query(file_path: str) -> list:
with open(file_path, 'r', encoding='utf-8') as file:
content = file.read()
if 'fofa' not in content.lower():
return []
process_id = send_msg(str(content))
result = get_msg(process_id).split(',')
return result
if __name__ == "__main__":
path = '/path/to/Poc/Markdown'
md_files = list_files(path)
query_list = []
filename = '/tmp/output.csv'
fp = open(filename, 'w', newline='')
for f in md_files:
result = get_query(file_path=os.path.join(path, f))
if len(result) == 0:
continue
try:
print(f"Query for {f} -> {result[0]}: {result[1]}")
fp.write(f"{result[0]},{result[1]}\n")
fp.flush()
except:
continue
fp.close()
|
由于我不是很擅长编写Prompt
得到的结果不是非常理想,有时候AI提取生成的结果还是会出现意外内容:
不过整体结果较好,为了提升质量,一方面需要优化配置文件中的Prompt
,另外一方面倒是可以调用更强大模型。
提取的语句在这里:39ed264a2db15ec58fd13432d58c41e6
总结
通过使用Qpipe
我处理了一个点赞量较高的仓库,一共筛选出来300多个Fofa
查询语句,而且都是结构化的,当然Qpipe
并不只是为了做这么简单的事情,它还支持定时任务启动处理,我准备把它用在工作中的运营事务上,起码可以过滤一些信息。
最后,Qpipe
有点像langchain
的低配低配版,而stream
充当了一个个带有特殊能力的Agent
,赋予了AI处理任务的能力,未来或许可以将langchain
中内置的一些prompt
拿来作为参考,写出更强大的配置文件。
文章来源: https://payloads.online/archivers/2024-09-08/extract-vuln-search-queries/
如有侵权请联系:admin#unsafe.sh