Teams Six
【工具分享】Pigat v2.0正式发布 【工具分享】Pigat v2.0正式发布
前言Pigat(Passive Intelligence Gathering Aggregation Tool)被动信息收集聚合工具,该工具通过爬取目标URL在第三方网站比如备案查询网站、子域名查询网站的结果来对目标进行被动信息收集。 开发
2020-03-21
【渗透实例】Fuzz大法好啊 【渗透实例】Fuzz大法好啊
0x00 前言 本文仅供学习分享用途,严禁用于违法用途 在搞站的时候,经过一顿操作后只发现了一堆低危,过了一段时间看看Xray,居然发现一个XSS 嗯~ Xray 真香!
2020-03-10
【Django 学习笔记】5、常用功能 【Django 学习笔记】5、常用功能
0x00 案例实现 创建的项目名称为BookManager,创建应用名称为Book,完成图书信息的维护 访问图书信息列表127.0.0.1:8000/booklist,并且点击每个图书能够跳转到对应图书人物信息界面
【Django 学习笔记】4、模板 【Django 学习笔记】4、模板
1、在项目根目录下,创建templates目录,在templates下新建index.html文件,PyCharm将自动生成html的文件内容格式。 . ├── Book ├── BookManager └── templates
【Django 学习笔记】3、视图 【Django 学习笔记】3、视图
后台管理页面搞定之后,就需要做公共页面的访问了 对于Django的设计框架MVT: 用户在URL中请求的是视图 视图接受请求后进行处理 然后将处理的结果返回给请求者 使用视图时要进行的两步操作: 定义视图 配置URL
【Django 学习笔记】2、模型 【Django 学习笔记】2、模型
0x00 模型 当前项目的开发, 都是数据驱动的。 使用Django进行数据库开发的提示 : MVT设计模式中的Model, 专门负责和数据库交互.对应(models.py) 由于Model中内嵌了ORM框架, 所以不需要直接面向数据库
【Django 学习笔记】1、基础概念和MVT架构 【Django 学习笔记】1、基础概念和MVT架构
0x00 Django 简介 Django是Python写的开源Web开发框架,主要目的是做一个简便、快速的开发数据库驱动的网站 Django遵循MVC设计模式,在Django中有个专有名词,叫做MVT 设计模式就是前辈们在开发过程中总结出
【工具分享】分享一个jQuery多版本XSS漏洞检测工具 【工具分享】分享一个jQuery多版本XSS漏洞检测工具
0x00 前言最近在搞一个 jQuery v2.1.4 DOM-XSS 漏洞的复现,在网上找了很多Payload都不能用,大多数Payload都只适用于 jQuery v1.x 版本的。 后来看到有个文章说需要Safari浏览器,于是又废了
2020-02-23
【经验总结】解决 BurpSuite Pro v2020.1 版本中文乱码问题 【经验总结】解决 BurpSuite Pro v2020.1 版本中文乱码问题
0x00 前言之前在我的公众号分享了 BurpSuite Pro v2020.1 版本,但是在使用过程中发现总是会有中文乱码的情况出现,后来使用 Lucida 字体,乱码的情况得到了缓解,但是有些网页依旧会出现乱码的情况,直到后来才意识到问
2020-02-17
【工具分享】BurpSuite Pro v2020.1 无后门专业破解版 【工具分享】BurpSuite Pro v2020.1 无后门专业破解版
前言工欲善其身,必先利其器,吃饭的家伙终于更新了,这次改动还蛮大的,尤其是加入了黑暗模式。 至于工具的使用及破解方法相信你既然能看到这篇文章,那就不用我过多赘述了 [手动狗头]。
2020-02-11
【摘要】漏洞组合拳之XSS+CSRF记录 【摘要】漏洞组合拳之XSS+CSRF记录
前几天,我在FreeBuf发布了一篇文章《漏洞组合拳之XSS+CSRF记录》,因为版权原因,无法在​这里发布。 文章里介绍了两种常见的组合拳方法,感兴趣的可以点击下方链接进行查看。 文章链接:https://www.freebuf.com/
2020-02-06
【经验总结】Python3 Requests 模块请求内容包含中文报错的解决办法 【经验总结】Python3 Requests 模块请求内容包含中文报错的解决办法
0x00 前言最近在写一个爬虫代码,里面需要使用 get 传参中文,但是如果直接使用中文而不对其编码的话,程序将会报错。 UnicodeEncodeError: 'latin-1' codec can't encod
2020-02-06
【经验总结】SQL注入Bypass安全狗360主机卫士 【经验总结】SQL注入Bypass安全狗360主机卫士
0x00 前言这类的文章已经是比较多了,本文也主要是作为学习笔记来记录,主要是记录一下我在学习 SQL 注入 Bypass 的过程,同时前人的不少绕过方法已经失效了,所以这里也是记录一下最新规则的一些绕过方法。 0x01 环境搭建测试环境:
2020-01-05
【Python Scrapy 爬虫框架】 6、继续爬虫、终止和重启任务 【Python Scrapy 爬虫框架】 6、继续爬虫、终止和重启任务
0x00 前言有时候我们不想只爬一个页面的,比如之前我只爬了主页,但是现在想把其他页面的也爬下来,这就是本文的任务。 0x01 修改代码在之前的基础上,修改 teamssix_blog_spider.py 文件,首先添加 start_url
【Python Scrapy 爬虫框架】 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB 【Python Scrapy 爬虫框架】 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB
0x00 前言前文中讲到了将爬取的数据导出到文件中,接下来就在前文的代码基础之上,将数据导出到 MongoDB中。 0x01 配置 pipelines.py首先来到 pipelines.py 文件下,在这里写入连接操作数据库的一些功能。 将
【Python Scrapy 爬虫框架】 4、数据项介绍和导出文件 【Python Scrapy 爬虫框架】 4、数据项介绍和导出文件
0x00 前言通过上文的内容,已经把博客文章的标题及目录爬取下来了,接下来为了方便数据的保存,我们可以把这些文章的标题及目录给包装成一个数据项,也就是 items。 0x01 配置 item先来到 items.py 文件下,对标题及目录的信
【Python Scrapy 爬虫框架】 3、利用 Scrapy 爬取博客文章详细信息 【Python Scrapy 爬虫框架】 3、利用 Scrapy 爬取博客文章详细信息
0x00 写在前面在之前的文章中,会发现如果直接使用爬取命令,终端会回显很多调试信息,这样输出的内容就会显得很乱,所以就可以使用下面的命令: scrapy crawl blogurl -s LOG_FILE=all.log
【Python Scrapy 爬虫框架】 2、利用 Scrapy 爬取我的博客文章标题链接 【Python Scrapy 爬虫框架】 2、利用 Scrapy 爬取我的博客文章标题链接
0x00 新建项目在终端中即可直接新建项目,这里我创建一个名称为 teamssix 的项目,命令如下: scrapy startproject teamssix 命令运行后,会自动在当前目录下生成许多文件,如下所示: teamssix
8 / 11