攻击面插件网站爬虫开发
资产搜集思考 在过往的打点经历中,发现有好多资产并不是备案、域名、C段等常规手段获取,好多都是主页或其他页面存在跳转。 因此花费几个小时时间把这个攻击面插件写出来。 插件简单设计 本次设计可能很简单,毕竟是个快速出炉的脚本 爬取指定url链接 过滤link 设置了4个子集,url_subdomain、subdomain、url_ip、ip 如果是ip 直接将link填入url_ip以及ip中 如果是domain 判断link是否包含login、admin、sign、auth关键字 判断是否与输入 URL 具有相同主域名 判断是否同备案(需要根据实际情况实现) 通过任一均填入url_subdomain以及subdomain中 插件效果 插件源码 应该是有bug的,反正自用,之后再改。 websiteinfo.py import requests from bs4 import BeautifulSoup import ipaddress from urllib.parse import urlparse import beian def get_external_links(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 Edg/122.0.0.0', 'Referer': 'https://www.baidu.com/' } # 发送请求并获取网页内容 try: response = requests.get(url, headers=headers, verify=False, timeout=3) if response.status_code !...