crawlerx
实例名 | 实例描述 |
---|---|
AllDomainScan | (crawlerx.scanRangeLevel) 0 |
ExtremeRepeatLevel | (crawlerx.repeatLevel) 4 |
HighRepeatLevel | (crawlerx.repeatLevel) 3 |
LowRepeatLevel | (crawlerx.repeatLevel) 1 |
MediumRepeatLevel | (crawlerx.repeatLevel) 2 |
SubMenuScan | (crawlerx.scanRangeLevel) 1 |
UnLimitRepeat | (crawlerx.repeatLevel) 0 |
UnlimitedDomainScan | (crawlerx.scanRangeLevel) 2 |
函数名 | 函数描述/介绍 |
---|---|
crawlerx.PageScreenShot | |
crawlerx.StartCrawler | StartCrawler 开启一个无头浏览器模拟点击爬虫任务 第一个参数为目标url,后面可以添加零个或多个请求选项,用于对此次请求进行配置 返回值包括channel和错误,从channel中获取爬虫结果 Examples: ``` targetUrl = "http://testph... |
crawlerx.aiInputInfo | |
crawlerx.aiInputUrl | |
crawlerx.blacklist | blacklist 是一个请求选项 用于设置不会被访问的url链接包含的关键词 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl,... |
crawlerx.browserInfo | browserInfo 是一个请求选项 用于配制浏览器参数 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" browserInfo = { "ws_address":"",... |
crawlerx.concurrent | concurrent 是一个请求选项 用于设置浏览器同时打开的最大页面数量 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, c... |
crawlerx.cookies | cookies 是一个请求选项 用于设置爬虫发送请求时的cookie Examples: ``` targetUrl = "http://testphp.vulnweb.com/" cookieMap = make(map[string]string, 0) cookieM... |
crawlerx.evalJs | |
crawlerx.extraWaitLoadTime | extraWaitLoadTime 是一个请求选项 用于设置页面加载的额外页面等待时间 防止加载vue网站页面时页面状态为加载完成 实际仍在加载中的情况 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, ... |
crawlerx.fileInput | fileInput 是一个请求选项 用于设置页面遇到input submit时默认上传文件 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" fileMap = make(map[string]string, 0)... |
crawlerx.formFill | formFill 是一个请求选项 用于设置页面输入框填写内容 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" inputMap = make(map[string]string, 0) inputMap[... |
crawlerx.fromPlugin | |
crawlerx.fullTimeout | fullTimeout 是一个请求选项 用于设置爬虫任务总超时时间 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawl... |
crawlerx.headers | headers 是一个请求选项 用于设置爬虫发送请求时的headers Examples: ``` targetUrl = "http://testphp.vulnweb.com/" headerMap = make(map[string]string, 0) header... |
crawlerx.ignoreQueryName | ignoreQueryName 是一个请求选项 用于设置url中的query名称去重时忽略 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targ... |
crawlerx.invalidSuffix | |
crawlerx.jsResultSend | |
crawlerx.leakless | |
crawlerx.localStorage | |
crawlerx.maxDepth | maxDepth 是一个请求选项 用于设置网站最大爬取深度 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.... |
crawlerx.maxUrl | maxUrl 是一个请求选项 用于设置最大爬取url数量 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.m... |
crawlerx.pageTimeout | pageTimeout 是一个请求选项 用于设置单个页面超时时间 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawle... |
crawlerx.rawCookie | rawCookie 是一个请求选项 用于设置爬虫发送请求时的cookie Examples: `` targetUrl = "http://testphp.vulnweb.com/" cookie = Apache=5651982500959.057.1731310579... |
crawlerx.rawHeaders | rawHeaders 是一个请求选项 用于设置爬虫发送请求时的headers Examples: `` targetUrl = "http://testphp.vulnweb.com/" headers = Accept: text/html,application/xh... |
crawlerx.response | |
crawlerx.runtimeID | |
crawlerx.runtimeId | |
crawlerx.saveToDB | |
crawlerx.scanRangeLevel | scanRangeLevel 是一个请求选项 用于设置爬虫扫描范围 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" scanRangeOpt = crawlerx.scanRangeLevel(crawlerx.... |
crawlerx.scanRepeatLevel | scanRepeatLevel 是一个请求选项 用于设置爬虫去重强度 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" scanRepeatOpt = crawlerx.scanRepeatLevel(crawle... |
crawlerx.sensitiveWords | sensitiveWords 是一个请求选项 用于设置页面按钮点击时的敏感词 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" sensitiveWords = "logout,delete" c... |
crawlerx.sessionStorage | |
crawlerx.sourceType | |
crawlerx.stealth | |
crawlerx.urlCheck | urlCheck 是一个请求选项 用于设置是否在爬虫前进行url存活检测 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, cr... |
crawlerx.vue | |
crawlerx.whitelist | whitelist 是一个请求选项 用于设置只会被访问的url链接中包含的关键词 Examples: ``` targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl... |
#
函数定义#
PageScreenShot#
详细描述#
定义PageScreenShot(targetUrl string, opts ...ConfigOpt) (code string, err error)
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
targetUrl | string | |
opts | ...ConfigOpt |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
code | string | |
err | error |
#
StartCrawler#
详细描述StartCrawler 开启一个无头浏览器模拟点击爬虫任务 第一个参数为目标url,后面可以添加零个或多个请求选项,用于对此次请求进行配置 返回值包括channel和错误,从channel中获取爬虫结果
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.pageTimeout(30), crawlerx.concurrent(3)) for item = range ch { yakit.Info(item.Method() + " " + item.Url()) }
#
定义StartCrawler(url string, opts ...ConfigOpt) (chan ReqInfo, error)
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
url | string | |
opts | ...ConfigOpt |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | chan ReqInfo | |
r2 | error |
#
aiInputInfo#
详细描述#
定义aiInputInfo(info string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
info | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
aiInputUrl#
详细描述#
定义aiInputUrl(url string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
url | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
blacklist#
详细描述blacklist 是一个请求选项 用于设置不会被访问的url链接包含的关键词
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.blacklist("logout", "exit", "delete")) // 设置遇到url中包含logout、exit和delete时不会访问 ...
#
定义blacklist(keywords ...string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
keywords | ...string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
browserInfo#
详细描述browserInfo 是一个请求选项 用于配制浏览器参数
Examples:
targetUrl = "http://testphp.vulnweb.com/" browserInfo = { "ws_address":"", // 浏览器websocket url "exe_path":"", // 浏览器可执行路径 "proxy_address":"", // 代理地址 "proxy_username":"", // 代理用户名 "proxy_password":"", // 代理密码 } browserInfoOpt = crawlerx.browserInfo(json.dumps(browserInfo)) ch, err = crawlerx.StartCrawler(targetUrl, browserInfoOpt) ...
#
定义browserInfo(data string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
data | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
concurrent#
详细描述concurrent 是一个请求选项 用于设置浏览器同时打开的最大页面数量
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.concurrent(3)) // 设置浏览器同时打开的最大页面数量为3 ...
#
定义concurrent(concurrent int) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
concurrent | int |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
cookies#
详细描述cookies 是一个请求选项 用于设置爬虫发送请求时的cookie
Examples:
targetUrl = "http://testphp.vulnweb.com/" cookieMap = make(map[string]string, 0) cookieMap["Apache"] = "5651982500959.057.1731310579958" cookieMap["ULV"] = "1731310579971:11:1:1:5651982500959.057.1731310579958:1727418057693" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.cookies("testphp.vulnweb.com", cookieMap)) // cookie字典形式输入 ...
#
定义cookies(domain string, cookiesInfo map[string]string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
domain | string | |
cookiesInfo | map[string]string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
evalJs#
详细描述#
定义evalJs(target string, evalJs string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
target | string | |
evalJs | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
extraWaitLoadTime#
详细描述extraWaitLoadTime 是一个请求选项 用于设置页面加载的额外页面等待时间
防止加载vue网站页面时页面状态为加载完成 实际仍在加载中的情况
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.extraWaitLoadTime(1000)) // 设置页面加载的额外页面等待时间为1000毫秒 ...
#
定义extraWaitLoadTime(extraWaitLoadTime int) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
extraWaitLoadTime | int |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
fileInput#
详细描述fileInput 是一个请求选项 用于设置页面遇到input submit时默认上传文件
Examples:
targetUrl = "http://testphp.vulnweb.com/" fileMap = make(map[string]string, 0) fileMap["default"] = "/path/to/file/test.txt" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.fileInput(fileMap)) // 设置遇到输入框元素中存在对应关键词时输入对应内容 默认输入test ...
#
定义fileInput(fileInput map[string]string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
fileInput | map[string]string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
formFill#
详细描述formFill 是一个请求选项 用于设置页面输入框填写内容
Examples:
targetUrl = "http://testphp.vulnweb.com/" inputMap = make(map[string]string, 0) inputMap["username"] = "admin" inputMap["password"] = "123321" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.formFill(inputMap)) // 设置遇到输入框元素中存在对应关键词时输入对应内容 默认输入test ...
#
定义formFill(formFills map[string]string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
formFills | map[string]string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
fromPlugin#
详细描述#
定义fromPlugin(fromPlugin string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
fromPlugin | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
fullTimeout#
详细描述fullTimeout 是一个请求选项 用于设置爬虫任务总超时时间
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.fullTimeout(1800)) // 设置爬虫任务总超时时间为1800秒 ...
#
定义fullTimeout(timeout int) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
timeout | int |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
headers#
详细描述headers 是一个请求选项 用于设置爬虫发送请求时的headers
Examples:
targetUrl = "http://testphp.vulnweb.com/" headerMap = make(map[string]string, 0) headerMap["Connection"] = "keep-alive" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.headers(headerMap)) // header以字典形式输入 ...
#
定义headers(headersInfo map[string]string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
headersInfo | map[string]string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
ignoreQueryName#
详细描述ignoreQueryName 是一个请求选项 用于设置url中的query名称去重时忽略
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.ignoreQueryName("sid", "tid")) // 设置检测url是否重复时无视sid和tid这两个query ...
#
定义ignoreQueryName(names ...string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
names | ...string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
invalidSuffix#
详细描述#
定义invalidSuffix(suffix []string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
suffix | []string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
jsResultSend#
详细描述#
定义jsResultSend(storage func(s string)) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
storage | func(s string) |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
leakless#
详细描述#
定义leakless(leakless string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
leakless | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
localStorage#
详细描述#
定义localStorage(storage map[string]string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
storage | map[string]string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
maxDepth#
详细描述maxDepth 是一个请求选项 用于设置网站最大爬取深度
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.maxDepth(3)) // 设置网站最大爬取深度为3 ...
#
定义maxDepth(depth int) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
depth | int |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
maxUrl#
详细描述maxUrl 是一个请求选项 用于设置最大爬取url数量
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.maxUrl(100)) // 设置最大爬取url数量为100 ...
#
定义maxUrl(maxUrl int) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
maxUrl | int |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
pageTimeout#
详细描述pageTimeout 是一个请求选项 用于设置单个页面超时时间
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.pageTimeout(30)) // 设置单个页面超时时间为30秒 ...
#
定义pageTimeout(timeout int) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
timeout | int |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
rawCookie#
详细描述rawCookie 是一个请求选项 用于设置爬虫发送请求时的cookie
Examples:
targetUrl = "http://testphp.vulnweb.com/" cookie = `Apache=5651982500959.057.1731310579958; ULV=1731310579971:11:1:1:5651982500959.057.1731310579958:1727418057693; ALF=1735783078` ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.rawCookie("testphp.vulnweb.com", cookie)) // 原生cookie输入 ...
#
定义rawCookie(domain string, cookieInfo string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
domain | string | |
cookieInfo | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
rawHeaders#
详细描述rawHeaders 是一个请求选项 用于设置爬虫发送请求时的headers
Examples:
targetUrl = "http://testphp.vulnweb.com/" headers = `Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7 Accept-Encoding: gzip, deflate Accept-Language: zh-CN,zh;q=0.9,en;q=0.8,ja;q=0.7,zh-TW;q=0.6 Cache-Control: max-age=0 Connection: keep-alive Host: testphp.vulnweb.com Upgrade-Insecure-Requests: 1 User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/131.0.0.0 Safari/537.36 `
ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.rawHeaders(headers)) // 原生headers输入 ...
#
定义rawHeaders(headerInfo string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
headerInfo | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
response#
详细描述#
定义response(targetUrl string, response string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
targetUrl | string | |
response | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
runtimeID#
详细描述#
定义runtimeID(id string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
id | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
runtimeId#
详细描述#
定义runtimeId(id string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
id | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
saveToDB#
详细描述#
定义saveToDB(b bool) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
b | bool |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
scanRangeLevel#
详细描述scanRangeLevel 是一个请求选项 用于设置爬虫扫描范围
Examples:
targetUrl = "http://testphp.vulnweb.com/" scanRangeOpt = crawlerx.scanRangeLevel(crawlerx.AllDomainScan) // 主域名扫描 // scanRangeOpt = crawlerx.scanRangeLevel(crawlerx.SubMenuScan) // 子域名扫描 // scanRangeOpt = crawlerx.scanRangeLevel(crawlerx.UnlimitedDomainScan) // 无限制扫描 ch, err = crawlerx.StartCrawler(targetUrl, scanRangeOpt) ...
#
定义scanRangeLevel(scanRange scanRangeLevel) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
scanRange | scanRangeLevel |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
scanRepeatLevel#
详细描述scanRepeatLevel 是一个请求选项 用于设置爬虫去重强度
Examples:
targetUrl = "http://testphp.vulnweb.com/" scanRepeatOpt = crawlerx.scanRepeatLevel(crawlerx.UnLimitRepeat) // 对page,method,query-name,query-value和post-data敏感 // scanRepeatOpt = crawlerx.scanRepeatLevel(crawlerx.LowRepeatLevel) // 对page,method,query-name和query-value敏感(默认) // scanRepeatOpt = crawlerx.scanRepeatLevel(crawlerx.MediumRepeatLevel) // 对page,method和query-name敏感 // scanRepeatOpt = crawlerx.scanRepeatLevel(crawlerx.HighRepeatLevel) // 对page和method敏感 // scanRepeatOpt = crawlerx.scanRepeatLevel(crawlerx.ExtremeRepeatLevel) // 对page敏感 ch, err = crawlerx.StartCrawler(targetUrl, scanRepeatOpt) ...
#
定义scanRepeatLevel(scanRepeat repeatLevel) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
scanRepeat | repeatLevel |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
sensitiveWords#
详细描述sensitiveWords 是一个请求选项 用于设置页面按钮点击时的敏感词
Examples:
targetUrl = "http://testphp.vulnweb.com/" sensitiveWords = "logout,delete" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.sensitiveWords(sensitiveWords.Split(","))) // 当按钮所在元素中存在logout和delete关键词时不会点击 ...
#
定义sensitiveWords(words []string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
words | []string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
sessionStorage#
详细描述#
定义sessionStorage(storage map[string]string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
storage | map[string]string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
sourceType#
详细描述#
定义sourceType(sourceType string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
sourceType | string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
stealth#
详细描述#
定义stealth(stealth bool) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
stealth | bool |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
urlCheck#
详细描述urlCheck 是一个请求选项 用于设置是否在爬虫前进行url存活检测
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.urlCheck(true)) ...
#
定义urlCheck(check bool) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
check | bool |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
vue#
详细描述#
定义vue(vue bool) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
vue | bool |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |
#
whitelist#
详细描述whitelist 是一个请求选项 用于设置只会被访问的url链接中包含的关键词
Examples:
targetUrl = "http://testphp.vulnweb.com/" ch, err = crawlerx.StartCrawler(targetUrl, crawlerx.whitelist("test", "click")) // 设置只会访问url中包含test和click的链接 ...
#
定义whitelist(keywords ...string) ConfigOpt
#
参数参数名 | 参数类型 | 参数解释 |
---|---|---|
keywords | ...string |
#
返回值返回值(顺序) | 返回值类型 | 返回值解释 |
---|---|---|
r1 | ConfigOpt |