python爬虫基础知识点整理
首先爬虫是什么?
网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。
根据我的经验,要学习Python爬虫,我们要学习的共有以下几点:
- Python基础知识
- Python中urllib和urllib2库的用法
- Python正则表达式
- Python爬虫框架Scrapy
- Python爬虫更高级的功能
1.Python基础学习
首先,我们要用Python写爬虫,肯定要了解Python的基础吧,万丈高楼平地起,不能忘啦那地基,哈哈,那么我就分享一下自己曾经看过的一些Python教程,小伙伴们可以作为参考。
1)Python学习网
Python学习网上有大量免费的Python入门教程,以便大家学习。不仅有视频教程,还有相应的问答版块,帮你解决学习过程中的问题,效果还是蛮不错的,内容基本上都是最基础的,入门开始的话,就这个吧
2)廖雪峰Python教程
后来,我发现了廖老师的Python教程,讲的那是非常通俗易懂哪,感觉也是非常不错,大家如果想进一步了解Python就看一下这个吧。
3)简明Python教程
还有一个我看过的,简明Python教程,感觉讲的也不错
学习网址:简明Python教程(https://woodpecker.org.cn/abyteofpython_cn/chinese/pr01.html#s01)
4)汪海的实验室
这是我的本科实验室学长,入门的时候参考的他的文章,自己重新做了总结,后来这些系列文章又在他的基础上增加了一些内容。
学习网址:汪海的实验室(https://blog.csdn.net/wxg694175346/category_1418998_1.html)
2.Pythonurllib和urllib2库的用法
urllib和urllib2库是学习Python爬虫最基本的库,利用这个库我们可以得到网页的内容,并对内容用正则表达式提取分析,得到我们想要的结果。这个在学习过程中我会和大家分享的。
3.Python正则表达式
Python正则表达式是一种用来匹配字符串的强有力的武器。它的设计思想是用一种描述性的语言来给字符串定义一个规则,凡是符合规则的字符串,我们就认为它“匹配”了,否则,该字符串就是不合法的。这个在后面的博文会分享的。
4.爬虫框架Scrapy
如果你是一个Python高手,基本的爬虫知识都已经掌握了,那么就寻觅一下Python框架吧,我选择的框架是Scrapy框架。这个框架有什么强大的功能呢?下面是它的官方介绍:
HTML,XML源数据选择及提取的内置支持
提供了一系列在spider之间共享的可复用的过滤器(即ItemLoaders),对智能处理爬取数据提供了内置支持。
通过feed导出提供了多格式(JSON、CSV、XML),多存储后端(FTP、S3、本地文件系统)的内置支持
提供了mediapipeline,可以自动下载爬取到的数据中的图片(或者其他资源)。
高扩展性。您可以通过使用signals,设计好的API(中间件,extensions,pipelines)来定制实现您的功能。
内置的中间件及扩展为下列功能提供了支持:
cookiesandsession处理
HTTP压缩
HTTP认证
HTTP缓存
user-agent模拟
robots.txt
爬取深度限制
针对非英语语系中不标准或者错误的编码声明,提供了自动检测以及健壮的编码支持。
支持根据模板生成爬虫。在加速爬虫创建的同时,保持在大型项目中的代码更为一致。详细内容请参阅genspider命令。
针对多爬虫下性能评估、失败检测,提供了可扩展的状态收集工具。
提供交互式shell终端,为您测试XPath表达式,编写和调试爬虫提供了极大的方便
提供Systemservice,简化在生产环境的部署及运行
内置Webservice,使您可以监视及控制您的机器
内置Telnet终端,通过在Scrapy进程中钩入Python终端,使您可以查看并且调试爬虫
Logging为您在爬取过程中捕捉错误提供了方便
支持Sitemaps爬取
具有缓存的DNS解析器
官方文档:http://doc.scrapy.org/en/latest/
等我们掌握了基础的知识,再用这个Scrapy框架吧!
扯了这么多,好像没多少有用的东西额,那就不扯啦!
知识点扩展:
爬虫基本原理
爬虫是模拟用户在浏览器或者App应用上的操作,把操作的过程、实现自动化的程序
当我们在浏览器中输入一个url后回车,后台会发生什么?比如说你输入https://www.baidu.com
简单来说这段过程发生了以下四个步骤:
- 查找域名对应的IP地址。
- 浏览器首先访问的是DNS(DomainNameSystem,域名系统),dns的主要工作就是把域名转换成相应的IP地址向IP对应的服务器发送请求。
- 服务器响应请求,发回网页内容。
- 浏览器显示网页内容。
网络爬虫要做的,简单来说,就是实现浏览器的功能。通过指定url,直接返回给用户所需要的数据,而不需要一步步人工去操纵浏览器获取。
到此这篇关于python爬虫基础知识点整理的文章就介绍到这了,更多相关Python2爬虫入门内容请搜索毛票票以前的文章或继续浏览下面的相关文章希望大家以后多多支持毛票票!