Teams Six
【Django 学习笔记】3、视图 【Django 学习笔记】3、视图
后台管理页面搞定之后,就需要做公共页面的访问了 对于Django的设计框架MVT: 用户在URL中请求的是视图 视图接受请求后进行处理 然后将处理的结果返回给请求者 使用视图时要进行的两步操作: 定义视图 配置URL
【Django 学习笔记】2、模型 【Django 学习笔记】2、模型
0x00 模型 当前项目的开发, 都是数据驱动的。 使用Django进行数据库开发的提示 : MVT设计模式中的Model, 专门负责和数据库交互.对应(models.py) 由于Model中内嵌了ORM框架, 所以不需要直接面向数据库
【Django 学习笔记】1、基础概念和MVT架构 【Django 学习笔记】1、基础概念和MVT架构
0x00 Django 简介 Django是Python写的开源Web开发框架,主要目的是做一个简便、快速的开发数据库驱动的网站 Django遵循MVC设计模式,在Django中有个专有名词,叫做MVT 设计模式就是前辈们在开发过程中总结出
【工具分享】分享一个jQuery多版本XSS漏洞检测工具 【工具分享】分享一个jQuery多版本XSS漏洞检测工具
0x00 前言最近在搞一个 jQuery v2.1.4 DOM-XSS 漏洞的复现,在网上找了很多Payload都不能用,大多数Payload都只适用于 jQuery v1.x 版本的。 后来看到有个文章说需要Safari浏览器,于是又废了
2020-02-23
【经验总结】解决 BurpSuite Pro v2020.1 版本中文乱码问题 【经验总结】解决 BurpSuite Pro v2020.1 版本中文乱码问题
0x00 前言之前在我的公众号分享了 BurpSuite Pro v2020.1 版本,但是在使用过程中发现总是会有中文乱码的情况出现,后来使用 Lucida 字体,乱码的情况得到了缓解,但是有些网页依旧会出现乱码的情况,直到后来才意识到问
2020-02-17
【工具分享】BurpSuite Pro v2020.1 无后门专业破解版 【工具分享】BurpSuite Pro v2020.1 无后门专业破解版
前言工欲善其身,必先利其器,吃饭的家伙终于更新了,这次改动还蛮大的,尤其是加入了黑暗模式。 至于工具的使用及破解方法相信你既然能看到这篇文章,那就不用我过多赘述了 [手动狗头]。
2020-02-11
【摘要】漏洞组合拳之XSS+CSRF记录 【摘要】漏洞组合拳之XSS+CSRF记录
前几天,我在FreeBuf发布了一篇文章《漏洞组合拳之XSS+CSRF记录》,因为版权原因,无法在​这里发布。 文章里介绍了两种常见的组合拳方法,感兴趣的可以点击下方链接进行查看。 文章链接:https://www.freebuf.com/
2020-02-06
【经验总结】Python3 Requests 模块请求内容包含中文报错的解决办法 【经验总结】Python3 Requests 模块请求内容包含中文报错的解决办法
0x00 前言最近在写一个爬虫代码,里面需要使用 get 传参中文,但是如果直接使用中文而不对其编码的话,程序将会报错。 UnicodeEncodeError: 'latin-1' codec can't encod
2020-02-06
【经验总结】SQL注入Bypass安全狗360主机卫士 【经验总结】SQL注入Bypass安全狗360主机卫士
0x00 前言这类的文章已经是比较多了,本文也主要是作为学习笔记来记录,主要是记录一下我在学习 SQL 注入 Bypass 的过程,同时前人的不少绕过方法已经失效了,所以这里也是记录一下最新规则的一些绕过方法。 0x01 环境搭建测试环境:
2020-01-05
【Python Scrapy 爬虫框架】 6、继续爬虫、终止和重启任务 【Python Scrapy 爬虫框架】 6、继续爬虫、终止和重启任务
0x00 前言有时候我们不想只爬一个页面的,比如之前我只爬了主页,但是现在想把其他页面的也爬下来,这就是本文的任务。 0x01 修改代码在之前的基础上,修改 teamssix_blog_spider.py 文件,首先添加 start_url
【Python Scrapy 爬虫框架】 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB 【Python Scrapy 爬虫框架】 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB
0x00 前言前文中讲到了将爬取的数据导出到文件中,接下来就在前文的代码基础之上,将数据导出到 MongoDB中。 0x01 配置 pipelines.py首先来到 pipelines.py 文件下,在这里写入连接操作数据库的一些功能。 将
【Python Scrapy 爬虫框架】 4、数据项介绍和导出文件 【Python Scrapy 爬虫框架】 4、数据项介绍和导出文件
0x00 前言通过上文的内容,已经把博客文章的标题及目录爬取下来了,接下来为了方便数据的保存,我们可以把这些文章的标题及目录给包装成一个数据项,也就是 items。 0x01 配置 item先来到 items.py 文件下,对标题及目录的信
【Python Scrapy 爬虫框架】 3、利用 Scrapy 爬取博客文章详细信息 【Python Scrapy 爬虫框架】 3、利用 Scrapy 爬取博客文章详细信息
0x00 写在前面在之前的文章中,会发现如果直接使用爬取命令,终端会回显很多调试信息,这样输出的内容就会显得很乱,所以就可以使用下面的命令: scrapy crawl blogurl -s LOG_FILE=all.log
【Python Scrapy 爬虫框架】 2、利用 Scrapy 爬取我的博客文章标题链接 【Python Scrapy 爬虫框架】 2、利用 Scrapy 爬取我的博客文章标题链接
0x00 新建项目在终端中即可直接新建项目,这里我创建一个名称为 teamssix 的项目,命令如下: scrapy startproject teamssix 命令运行后,会自动在当前目录下生成许多文件,如下所示: teamssix
【Python Scrapy 爬虫框架】 1、简介与安装 【Python Scrapy 爬虫框架】 1、简介与安装
0x00 简介下图展示了 Scrapy 的体系结构及其组件概述,在介绍图中的流程前,先来简单了解一下图中每个组件的含义。 EngineEngine 负责控制系统所有组件之间的数据流,并在某些操作发生时触发事件。
【漏洞笔记】浅谈SSRF原理及其利用 【漏洞笔记】浅谈SSRF原理及其利用
声明:本文仅用作技术交流学习分享用途,严禁将本文中涉及到的技术用法用于违法犯罪目的。 0x00 漏洞说明SSRF (Server-Side Request Forgery) 即服务端请求伪造,从字面意思上理解就是伪造一个服务端请求,也即是说
2019-12-22
【Python 学习笔记】 异步IO (asyncio) 协程 【Python 学习笔记】 异步IO (asyncio) 协程
0x00 前言之前对协程早有耳闻,但一直没有去学习,今天就来学习一下协程,再次感谢莫烦的教程。 可以交给asyncio执行的任务被称为协程, asyncio 即异步的意思,在 Python3 中这是一个仅使用单线程就能达到多线程、多进程效果
【Python 学习笔记】多进程爬虫 【Python 学习笔记】多进程爬虫
0x00 前言前段时间学习了多线程,但在实际的情况中对于多线程的速度实在不满意,所以今天就来学学多进程分布式爬虫,在这里感谢莫烦的Python教程。 0x01 什么是多进程爬虫在讲述多进程之前,先来回顾一下之前学习的多线程。
8 / 11