网络爬虫

网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常称为网络追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或脚本。

通俗理解:爬虫是一个模拟人类请求网站行为的程序。可以自动请求网页并把数据抓取下来,然后使用一定的规则提取有价值的数据。

爬虫的实际应用

  • 搜索引擎(百度、谷歌等)
  • 伯乐在线
  • 惠惠购物助手
  • 数据分析
  • 抢票软件等

为什么用Python爬虫

  • PHP:”PHP是世界上最好的语言”,但它天生不是做这个的,而且对多线程、异步支持不是很好,并发处理能力弱。爬虫是工具性程序,对速度和效率要求比较高。
  • Java: 生态圈很完善,是Python爬虫最大的竞争对手。但是Java语言本身很笨重,代码量很大。重构成本比较高,任何修改会导致代码大量改动。爬虫要经常修改采集代码。
  • C/C++:运行效率是无敌的。但是学习和开发成本高。写个小爬虫程序可能要大半天时间。
  • Python: 语法优美、代码简洁、开发效率高、支持的模块多。相关的HTTP请求模块和HTML解析模块非常丰富。还有Scrapy和Scrapy-redis框架让我们开发爬虫变得异常简单。

HTTP协议

Http协议:全称是HyperText Transfer Protocol,中文意思是超文本传输协议,是一种发布和接收HTML(HyperText Markup Language)页面的方法。服务器端口号是80端口。

Https协议:是HTTP协议的加密版本,在HTTP下加入了SSL层。服务器端口是443端口。

URL详解

URL是Uniform Resource Locator的简写,意为统一资源定位符。一个URL由以下几部分组成:

scheme://host:port/path/?query-string=xxx#anchor

1.scheme:代表的是访问协议,一般为http或者https一级ftp等

2.host:主机名,域名,比如www.baidu.com

3.port:端口号,当你访问一个网站的时候,浏览器默认使用80端口

4.path:查找路径,比如:www.jianshu.com/trending/now,后面的trending/now就是path

5.query-string:查询字符串,比如:www.baidu.com/s?wd=python,后面的wd=python就是查询字符串

6.anchor:锚点,前段用来做页面定位的。现在一些前后端分离项目也用锚点来做导航。

在浏览器中请求一个url,浏览器会对这个url进行统一编码。除英文字母、数字和部分符号外,其他的全部使用百分号+十六进制码进行编码。

常见的请求Method

在Http协议中,定义了八种请求方法。这里介绍两种常用的请求方法,分别是get请求和post请求。

  • Get请求:一般情况下,只从服务器获取数据下来,并不会对服务器资源产生任何影响的时候会使用Get请求。
  • Post请求:向服务器发送数据(如登录)、上传文件等,会对服务器资源产生影响的时候会使用Post请求。

以上是在网站开发中常用的两种方法,并且一般情况下都会遵循使用的原则。但是有的网站和服务器为了做反爬虫机制,也经常会不按常理出牌,有可能一个应该使用Get方法的请求一定要改成Post请求,这个要视情况而定。

下表介绍了八种请求方法:

序号 方法 描述
1 GET 请求指定的页面信息,并返回实体主体
2 HEAD 类似于GET请求,只不过返回的响应中没有具体的内容,用于获取报头
3 POST 向指定资源提交数据进行处理请求(例如提交表单或上传文件),数据被包含在请求实体中。POST请求可能会导致新的资源建立或已有资源的修改。
4 PUT 从客户端向服务器传送数据取代指定的文档的内容。
5 DELETE 请求服务器删除指定的页面。
6 CONNECT HTTP/1.1协议中预留给能够将连接改为管道方式的代理服务器
7 OPTIONS 允许客户端查看服务器的性能
8 TRACE 回显服务器收到的请求,主要用于测试或诊断。

常见的请求头参数

在http协议中,向服务器发送一个请求,数据分为三个部分,第一个是把数据放在url中,第二个是把数据放在body中(在post请求中),第三个就是把数据放在head中。这里介绍在网络爬虫中经常会用到的一些请求头参数:

  • User-Agent:浏览器名称。这个在爬虫中经常会被使用到。请求一个网页的时候,服务器通过这个参数就可以知道这个请求是由哪种浏览器发送的。如果我们是通过爬虫发送请求,那么我们的User-Agent就是Python,这对那些有反爬虫机制的网站来说,可以轻易地判断你这个请求是爬虫。因此我们要经常设置这个值为一些浏览器的值,来伪装我们的爬虫。

  • Referer:表明当前这个请求是从哪个url过来的。这个一般也可以用来做反爬虫技术。如果不是从指定页面过来的,那么就不做相关的响应。

  • Cookie:http协议是无状态的。也就是同一个人发送了两次请求,服务器没有能力知道这两个请求是否来自同一个人。因此这时候就用Cookie来做标识。一般如果想要登录后才能访问的网站就需要发送Cookie信息了。

常见的响应状态码

  • 200:请求正常,服务器正常地返回数据。
  • 301:永久重定向。比如在访问www.jingdong.com的时候会重定向到www.jd.com
  • 302:临时重定向。比如在访问一个需要登录的页面的时候,而此时没有登录那么就会重定向到登录页面。
  • 400:请求的url在服务器上找不到。换句话说就是请求url错误。
  • 403:服务器拒绝访问,权限不够
  • 500:服务器内部错误。可能是服务器出现了Bug。

Chrome抓包工具

Chrome是一个非常亲近开发者的浏览器。可以方便地查看网络请求以及发送的参数。

对着网页右键 -> 检查就可以打开开发者选项。

  • Elements:构成这个网页的源代码。可以帮助我们分析网页结构,获取我们想要的数据。但是Elements下是最终呈现的网页数据,有时候网页数据是通过ajax请求得到的,因此Elements下的数据不能完全相信。
  • Console:这个网页的控制台。用来打印网页的一些信息
  • Sources:组成这个网页的所有源文件。
  • Network:加载这个页面的时候,浏览器发送的所有请求。一般我们想要去查看某个请求,都可以到这个里面去看。

发表评论

电子邮件地址不会被公开。 必填项已用*标注