登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書

『簡體書』Python网络爬虫从入门到精通

書城自編碼: 3626054
分類:簡體書→大陸圖書→計算機/網絡程序設計
作者: 明日科技
國際書號(ISBN): 9787302567004
出版社: 清华大学出版社
出版日期: 2021-06-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:HK$ 124.8

我要買

 

** 我創建的書架 **
未登入.


新書推薦:
波段交易的高级技术:股票和期权交易者的资金管理、规则、策略和程序指南
《 波段交易的高级技术:股票和期权交易者的资金管理、规则、策略和程序指南 》

售價:HK$ 94.8
人,为什么需要存在感:罗洛·梅谈死亡焦虑
《 人,为什么需要存在感:罗洛·梅谈死亡焦虑 》

售價:HK$ 81.6
锁国:日本的悲剧
《 锁国:日本的悲剧 》

售價:HK$ 93.6
AI智能写作: 巧用AI大模型 让新媒体变现插上翅膀
《 AI智能写作: 巧用AI大模型 让新媒体变现插上翅膀 》

售價:HK$ 70.8
家庭养育七步法5:理解是青春期的通关密码
《 家庭养育七步法5:理解是青春期的通关密码 》

售價:HK$ 59.8
三体(全三册)
《 三体(全三册) 》

售價:HK$ 113.5
天象之维:汉画像中的天文与人文
《 天象之维:汉画像中的天文与人文 》

售價:HK$ 105.0
妓女与文人
《 妓女与文人 》

售價:HK$ 38.4

 

建議一齊購買:

+

HK$ 99.8
《 Java从入门到精通(第6版)(软件开发视频大讲堂) 》
+

HK$ 99.8
《 Python从入门到精通(第2版)(软件开发视频大讲堂) 》
+

HK$ 112.3
《 Python数据分析从入门到精通 》
+

HK$ 112.3
《 PyQt从入门到精通 》
+

HK$ 124.8
《 Python Web开发从入门到精通 》
+

HK$ 131.7
《 PHP从入门到精通(微视频精编版) 》
編輯推薦:
《Python网络爬虫从入门到精通》从零基础开始,提供了Python网络爬虫开发从入门到编程高手所必需的各类知识。无论有没有Python基础,通过本书你都能最终成为网络爬虫高手。
(1)主流技术,全面解析。本书涵盖网页抓取、App抓包、识别验证码、Scrapy爬虫框架,以及Scrapy_Redis分布式爬虫等技术,一本书教你掌握网络爬虫领域的主流核心技术。
(2)由浅入深,循序渐进。本书引领读者按照基础知识→;核心技术→;高级应用→;项目实战循序渐进地学习,符合认知规律。
(3)边学边练,学以致用。200个应用示例 1个行业项目案例 136集Python零基础扫盲课,边学边练,在实践中提升技能。
(4)精彩栏目,贴心提醒。本书设置了很多“;注意”;“;说明”;“;技巧”;等小栏目,让读者在学习的过程中更轻松地理解相关知识点及概念,更快地掌握数据分析技能和应用技巧。
(5)在线解答,高效学习。在线答疑QQ及技术支持网站,不定期进行在线直播课程。
內容簡介:
《Python网络爬虫从入门到精通》从初学者角度出发,通过通俗易懂的语言、丰富多彩的实例,详细介绍了使用Python实现网络爬虫开发应该掌握的技术。全书共分19章,内容包括初识网络爬虫、了解Web前端、请求模块urllib、请求模块urllib3、请求模块requests、高级网络请求模块、正则表达式、XPath解析、解析数据的BeautifulSoup、爬取动态渲染的信息、多线程与多进程爬虫、数据处理、数据存储、数据可视化、App抓包工具、识别验证码、Scrapy爬虫框架、Scrapy_Redis分布式爬虫、数据侦探。书中所有知识都结合具体实例进行介绍,涉及的程序代码给出了详细的注释,读者可轻松领会网络爬虫程序开发的精髓,快速提高开发技能。
關於作者:
明日科技,全称是吉林省明日科技有限公司,是一家专业从事软件开发、教育培训以及软件开发教育资源整合的高科技公司,其编写的教材非常注重选取软件开发中的必需、常用内容,同时也很注重内容的易学、方便性以及相关知识的拓展性,深受读者喜爱。其教材多次荣获“;全行业优秀畅销品种”;“;全国高校出版社优秀畅销书”;等奖项,多个品种长期位居同类图书销售排行榜的前列。
目錄
第1篇 基础知识
第1章 初识网络爬虫 2
1.1 网络爬虫概述 2
1.2 网络爬虫的分类 2
1.3 网络爬虫的基本原理 3
1.4 搭建开发环境 4
1.4.1 安装Anaconda 4
1.4.2 PyCharm的下载与安装 7
1.4.3 配置PyCharm 9
1.4.4 测试PyCharm 13
1.5 小结 15
第2章 了解Web前端 16
2.1 HTTP基本原理 16
2.1.1 HTTP协议 16
2.1.2 HTTP与Web服务器 16
2.1.3 浏览器中的请求和响应 18
2.2 HTML语言 19
2.2.1 什么是HTML 19
2.2.2 标签、元素、结构概述 19
2.2.3 HTML的基本标签 21
2.3 CSS层叠样式表 22
2.3.1 CSS概述 22
2.3.2 属性选择器 23
2.3.3 类和ID选择器 24
2.4 JavaScript动态脚本语言 24
2.5 小结 27
第3章 请求模块urllib 28
3.1 urllib简介 28
3.2 使用urlopen()方法发送请求 28
3.2.1 发送GET请求 29
3.2.2 发送POST请求 30
3.2.3 设置网络超时 31
3.3 复杂的网络请求 32
3.3.1 设置请求头 32
3.3.2 Cookies的获取与设置 34
3.3.3 设置代理IP 39
3.4 异常处理 40
3.5 解析链接 41
3.5.1 拆分URL 42
3.5.2 组合URL 43
3.5.3 连接URL 44
3.5.4 URL的编码与解码 45
3.5.5 URL参数的转换 46
3.6 小结 47
第4章 请求模块urllib3 48
4.1 urllib3简介 48
4.2 发送网络请求 49
4.2.1 GET请求 49
4.2.2 POST请求 50
4.2.3 重试请求 51
4.2.4 处理响应内容 51
4.3 复杂请求的发送 53
4.3.1 设置请求头 53
4.3.2 设置超时 54
4.3.3 设置代理 55
4.4 上传文件 56
4.5 小结 57
第5章 请求模块requests 58
5.1 请求方式 58
5.1.1 GET请求 59
5.1.2 对响应结果进行utf-8编码 59
5.1.3 爬取二进制数据 60
5.1.4 GET(带参)请求 61
5.1.5 POST请求 62
5.2 复杂的网络请求 63
5.2.1 添加请求头headers 63
5.2.2 验证Cookies 64
5.2.3 会话请求 65
5.2.4 验证请求 66
5.2.5 网络超时与异常 67
5.2.6 上传文件 68
5.3 代理服务 69
5.3.1 代理的应用 69
5.3.2 获取免费的代理IP 70
5.3.3 检测代理IP是否有效 71
5.4 小结 72
第6章 高级网络请求模块 73
6.1 Requests-Cache的安装与测试 73
6.2 缓存的应用 74
6.3 强大的Requests-HTML模块 76
6.3.1 使用Requests-HTML实现网络请求 76
6.3.2 数据的提取 78
6.3.3 获取动态加载的数据 82
6.4 小结 85
第2篇 核心技术
第7章 正则表达式 88
7.1 正则表达式基础 88
7.1.1 行定位符 88
7.1.2 元字符 89
7.1.3 限定符 89
7.1.4 字符类 90
7.1.5 排除字符 90
7.1.6 选择字符 90
7.1.7 转义字符 91
7.1.8 分组 91
7.1.9 在Python中使用正则表达式语法 91
7.2 使用match()进行匹配 92
7.2.1 匹配是否以指定字符串开头 93
7.2.2 匹配任意开头的字符串 94
7.2.3 匹配多个字符串 94
7.2.4 获取部分内容 94
7.2.5 匹配指定首尾的字符串 95
7.3 使用search()进行匹配 95
7.3.1 获取匹配值 96
7.3.2 可选匹配 96
7.3.3 匹配字符串边界 97
7.4 使用findall()进行匹配 97
7.4.1 匹配所有指定字符开头字符串 98
7.4.2 贪婪匹配 98
7.4.3 非贪婪匹配 99
7.5 字符串处理 100
7.5.1 替换字符串 100
7.5.2 分割字符串 101
7.6 案例:爬取编程e学网视频 102
7.6.1 查找视频页面 102
7.6.2 分析视频地址 103
7.6.3 实现视频下载 105
7.7 小结 105
第8章 XPath解析 106
8.1 XPath概述 106
8.2 XPath的解析操作 107
8.2.1 解析HTML 107
8.2.2 获取所有节点 109
8.2.3 获取子节点 110
8.2.4 获取父节点 112
8.2.5 获取文本 112
8.2.6 属性匹配 113
8.2.7 获取属性 115
8.2.8 按序获取 116
8.2.9 节点轴获取 117
8.3 案例:爬取豆瓣电影Top 250 118
8.3.1 分析请求地址 118
8.3.2 分析信息位置 119
8.3.3 爬虫代码的实现 120
8.4 小结 121
第9章 解析数据的BeautifulSoup 122
9.1 使用BeautifulSoup解析数据 122
9.1.1 BeautifulSoup的安装 122
9.1.2 解析器 123
9.1.3 BeautifulSoup的简单应用 124
9.2 获取节点内容 125
9.2.1 获取节点对应的代码 125
9.2.2 获取节点属性 126
9.2.3 获取节点包含的文本内容 127
9.2.4 嵌套获取节点内容 128
9.2.5 关联获取 129
9.3 方法获取内容 133
9.3.1 find_all()获取所有符合条件的内容 133
9.3.2 find()获取个匹配的节点内容 136
9.3.3 其他方法 137
9.4 CSS选择器 137
9.5 小结 140
第10章 爬取动态渲染的信息 141
10.1 Ajax数据的爬取 141
10.1.1 分析请求地址 141
10.1.2 提取视频标题与视频地址 144
10.1.3 视频的批量下载 145
10.2 使用Selenium爬取动态加载的信息 146
10.2.1 安装Selenium模块 146
10.2.2 下载浏览器驱动 147
10.2.3 Selenium模块的使用 147
10.2.4 Selenium模块的常用方法 149
10.3 Splash的爬虫应用 150
10.3.1 搭建Splash环境(Windows 10系统) 150
10.3.2 搭建Splash环境(Windows 7系统) 153
10.3.3 Splash中的HTTP API 156
10.3.4 执行lua自定义脚本 159
10.4 小结 160
第11章 多线程与多进程爬虫 161
11.1 什么是线程 161
11.2 创建线程 161
11.2.1 使用threading模块创建线程 162
11.2.2 使用Thread子类创建线程 163
11.3 线程间通信 163
11.3.1 什么是互斥锁 165
11.3.2 使用互斥锁 165
11.3.3 使用队列在线程间通信 167
11.4 什么是进程 169
11.5 创建进程的常用方式 169
11.5.1 使用multiprocessing模块创建进程 169
11.5.2 使用Process子类创建进程 172
11.5.3 使用进程池Pool创建进程 174
11.6 进程间通信 175
11.6.1 队列简介 177
11.6.2 多进程队列的使用 177
11.6.3 使用队列在进程间通信 179
11.7 多进程爬虫 180
11.8 小结 185
第12章 数据处理 186
12.1 初识Pandas 186
12.2 Series对象 187
12.2.1 图解Series对象 187
12.2.2 创建一个Series对象 188
12.2.3 手动设置Series索引 188
12.2.4 Series的索引 189
12.2.5 获取Series索引和值 190
12.3 DataFrame对象 190
12.3.1 图解DataFrame对象 191
12.3.2 创建一个DataFrame对象 192
12.3.3 DataFrame的重要属性和函数 194
12.4 数据的增、删、改、查 195
12.4.1 增加数据 195
12.4.2 删除数据 196
12.4.3 修改数据 197
12.4.4 查询数据 198
12.5 数据清洗 199
12.5.1 NaN数据处理 199
12.5.2 去除重复数据 202
12.6 数据转换 204
12.6.1 DataFrame转换为字典 204
12.6.2 DataFrame转换为列表 206
12.6.3 DataFrame转换为元组 206
12.7 导入外部数据 207
12.7.1 导入.xls或.xlsx文件 207
12.7.2 导入.csv文件 211
12.7.3 导入.txt文本文件 213
12.7.4 导入HTML网页 213
12.8 数据排序与排名 214
12.8.1 数据排序 214
12.8.2 数据排名 217
12.9 简单的数据计算 219
12.9.1 求和(sum函数) 219
12.9.2 求均值(mean函数) 220
12.9.3 求值(max函数) 221
12.9.4 求小值(min函数) 221
12.10 数据分组统计 222
12.10.1 分组统计groupby函数 222
12.10.2 对分组数据进行迭代 224
12.10.3 通过字典和Series对象进行分组统计 225
12.11 日期数据处理 227
12.11.1 DataFrame的日期数据转换 227
12.11.2 dt对象的使用 229
12.11.3 获取日期区间的数据 230
12.11.4 按不同时期统计并显示数据 231
12.12 小结 233
第13章 数据存储 234
13.1 文件的存取 234
13.1.1 基本文件操作TXT 234
13.1.2 存储CSV文件 239
13.1.3 存储Excel文件 240
13.2 SQLite数据库 241
13.2.1 创建数据库文件 242
13.2.2 操作SQLite 242
13.3 MySQL数据库 244
13.3.1 下载与安装MySQL 244
13.3.2 安装PyMySQL 248
13.3.3 连接数据库 249
13.3.4 创建数据表 250
13.3.5 操作MySQL数据表 251
13.4 小结 252
第3篇 高级应用
第14章 数据可视化 254
14.1 Matplotlib概述 254
14.1.1 Matplotlib简介 254
14.1.2 安装Matplotlib 257
14.2 图表的常用设置 258
14.2.1 基本绘图plot函数 258
14.2.2 设置画布 261
14.2.3 设置坐标轴 262
14.2.4 添加文本标签 265
14.2.5 设置标题和图例 266
14.2.6 添加注释 268
14.3 常用图表的绘制 269
14.3.1 绘制折线图 270
14.3.2 绘制柱形图 271
14.3.3 绘制饼形图 273
14.4 案例:可视化二手房数据查询系统 278
14.5 小结 285
第15章 App抓包工具 286
15.1 Charles工具的下载与安装 286
15.2 SSL证书的安装 288
15.2.1 安装PC端证书 288
15.2.2 设置代理 291
15.2.3 配置网络 292
15.2.4 安装手机端证书 294
15.3 小结 296
第16章 识别验证码 297
16.1 字符验证码 297
16.1.1 搭建OCR环境 297
16.1.2 下载验证码图片 298
16.1.3 识别验证码 299
16.2 第三方验证码识别 301
16.3 滑动拼图验证码 305
16.4 小结 307
第17章 Scrapy爬虫框架 308
17.1 了解Scrapy爬虫框架 308
17.2 搭建Scrapy爬虫框架 309
17.2.1 使用Anaconda安装Scrapy 309
17.2.2 Windows系统下配置Scrapy 310
17.3 Scrapy的基本应用 312
17.3.1 创建Scrapy项目 312
17.3.2 创建爬虫 313
17.3.3 获取数据 316
17.3.4 将爬取的数据保存为多种格式的文件 318
17.4 编写Item Pipeline 319
17.4.1 项目管道的核心方法 319
17.4.2 将信息存储至数据库 320
17.5 自定义中间件 324
17.5.1 设置随机请求头 325
17.5.2 设置Cookies 327
17.5.3 设置代理ip 330
17.6 文件下载 332
17.7 小结 334
第18章 Scrapy_Redis分布式爬虫 335
18.1 安装Redis数据库 335
18.2 Scrapy-Redis模块 337
18.3 分布式爬取中文日报新闻数据 338
18.3.1 分析网页地址 338
18.3.2 创建MySQL数据表 339
18.3.3 创建Scrapy项目 340
18.3.4 启动分布式爬虫 344
18.4 自定义分布式爬虫 348
18.5 小结 354
第4篇 项目实战
第19章 数据侦探 356
19.1 需求分析 356
19.2 系统设计 356
19.2.1 系统功能结构 356
19.2.2 系统业务流程 357
19.2.3 系统预览 358
19.3 系统开发必备 360
19.3.1 开发工具准备 360
19.3.2 文件夹组织结构 360
19.4 主窗体的UI设计 361
19.4.1 主窗体的布局 361
19.4.2 主窗体显示效果 363
19.5 设计数据库表结构 364
19.6 爬取数据 365
19.6.1 获取商品热卖排行信息 365
19.6.2 获取价格信息 370
19.6.3 获取评价信息 372
19.6.4 定义数据库操作文件 375
19.7 主窗体的数据展示 378
19.7.1 显示前10名热卖榜图文信息 378
19.7.2 显示关注商品列表 382
19.7.3 显示商品分类比例饼图 389
19.8 外设产品热卖榜 392
19.9 商品预警 395
19.9.1 关注商品中、差评预警 395
19.9.2 关注商品价格变化预警 398
19.9.3 更新关注商品信息 400
19.10 系统功能 401
19.11 小结 403
內容試閱
在大数据、人工智能应用越来越普遍的今天,Python可以说是当下世界上热门、应用广泛的编程语言之一,在人工智能、爬虫、数据分析、游戏、自动化运维等各个方面,无处不见其身影。随着大数据时代的来临,数据的收集与统计占据了重要地位,而数据的收集工作在很大程度上需要通过网络爬虫来爬取,所以网络爬虫技术变得十分重要。
本书提供了Python网络爬虫开发从入门到编程高手所必需的各类知识,共分4篇。
第1篇:基础知识。本篇内容主要介绍网络爬虫入门知识,包括初识网络爬虫、搭建网络爬虫的开发环境、Web前端知识、Python自带的网络请求模块urllib、第三方请求模块urllib3和requests,以及高级网络请求模块。结合大量的图示、举例等使读者快速掌握网络爬虫开发的必备知识,为以后编写网络爬虫奠定坚实的基础。
第2篇:核心技术。本篇主要介绍如何解析网络数据(包括正则表达式解析、Xpath解析和BeautifulSoup解析),以及如何爬取动态渲染的信息、多线程与多进程爬虫、数据处理与数据存储等相关知识。学习完这一部分,读者可熟练掌握如何通过网络爬虫获取网络数据并存储数据。
第3篇:高级应用。本篇主要介绍数据可视化、App抓包工具、识别验证码、Scrapy爬虫框架,以及Scrapy_Redis分布式爬虫等知识。
第4篇:项目实战。本篇通过一个完整的数据侦探爬虫项目,运用软件工程与网络爬虫的设计思想,让读者学习如何对电商数据进行网络爬虫软件项目的实践开发。书中按照“;需求分析→;系统设计→;公共模块设计→;数据库设计→;实现项目”;的流程进行介绍,带领读者一步一步亲身体验开发项目的全过程。
本书特点
由浅入深,循序渐进。本书以初中级程序员为对象,采用图文结合、循序渐进的编排方式,从网络爬虫开发环境的搭建到网络爬虫的核心技术应用,后通过一个完整的实战项目对网络爬虫的开发进行了详细讲解,帮助读者快速掌握网络爬虫开发技术,全面提升开发经验。
实例典型,轻松易学。通过例子学习是好的学习方式,本书通过“;一个知识点、一个例子、一个结果、一段评析”;的模式,透彻详尽地讲述了实际开发中所需的各类知识。另外,为了便于读者阅读程序代码,快速学习编程技能,书中几乎每行代码都提供了注释。
项目实战,经验累积。本书通过一个完整的电商数据爬取项目,讲解实际爬虫项目的完整开发过程,带领读者亲身体验开发项目的全过程,积累项目经验。
精彩栏目,贴心提醒。本书根据需要在各章使用了很多“;注意”;“;说明”;“;技巧”;等小栏目,让读者可以在学习过程中更轻松地理解相关知识点及概念,并轻松地掌握个别技术的应用技巧。
读者对象:初学编程的自学者、编程爱好者、大中专院校的老师和学生、相关培训机构的老师和学员、 毕业设计的学生、初中级程序开发人员、程序测试及维护人员、参加实习的“;菜鸟”;程序员。
读者服务:本书附赠的各类学习资源,读者可登录清华大学出版社网站,在对应图书页面下获取其下载方式。也可扫描图书封底的“;文泉云盘”;二维码,获取其下载方式。
感谢您购买本书,希望本书能成为您编程路上的领航者。
“;零门槛”;编程,一切皆有可能。
祝读书快乐!

第1 章
初识网络爬虫
在这个大数据的时代里,网络信息量变得越来越大、越来越多,此时如果通过人工的方式筛选自
己所感兴趣的信息是一件很麻烦的事情,爬虫技术便可以自动高效地获取互联网中的指定信息,因此
网络爬虫在互联网中的地位变得越来越重要。
本章将介绍什么是网络爬虫?网络爬虫都有哪些分类、网络爬虫的基本原理以及爬虫环境的搭建
工作。
1.1 网络爬虫概述
网络爬虫(又被称为网络蜘蛛、网络机器人,在某社区中经常被称为网页追逐者),可以按照指定
的规则(网络爬虫的算法)自动浏览或抓取网络中的信息,通过Python 可以很轻松地编写爬虫程序或
者是脚本。
在生活中网络爬虫经常出现,搜索引擎就离不开网络爬虫。例如,百度搜索引擎的爬虫名字叫作
百度蜘蛛(Baiduspider)。百度蜘蛛,是百度搜索引擎的一个自动程序。它每天都会在海量的互联网信
息中进行爬取,收集并整理互联网上的网页、图片视频等信息。然后当用户在百度搜索引擎中输入对
应的关键词时,百度将从收集的网络信息中找出相关的内容,按照一定的顺序将信息展现给用户。百
度蜘蛛在工作的过程中,搜索引擎会构建一个调度程序,来调度百度蜘蛛的工作,这些调度程序都是
需要使用一定算法来实现的,采用不同的算法,爬虫的工作效率也会有所不同,爬取的结果也会有所
差异。所以,在学习爬虫时不仅需要了解爬虫的实现过程,还需要了解一些常见的爬虫算法。在特定
的情况下,还需要开发者自己制定相应的算法。
1.2 网络爬虫的分类
网络爬虫按照实现的技术和结构可以分为通用网络爬虫、聚焦网络爬虫、增量式网络爬虫。在实
际的网络爬虫中,通常是这几类爬虫的组合体,下面分别介绍。
1.通用网络爬虫
通用网络爬虫又叫作全网爬虫(Scalable Web Crawler),通用网络爬虫的爬行范围和数量巨大,正
第1 章 初识网络爬虫
3
是由于其爬取的数据是海量数据,所以对于爬行速度和存储空间要求较高。通用网络爬虫在爬行页面
的顺序要求上相对较低,同时由于待刷新的页面太多,通常采用并行工作方式,所以需要较长时间才
可以刷新一次页面。所以存在着一定的缺陷,这种网络爬虫主要应用于大型搜索引擎中,有着非常高
的应用价值。通用网络爬虫主要由初始URL 集合、URL 队列、页面爬行模块、页面分析模块、页面数
据库、链接过滤模块等构成。
2.聚焦网络爬虫
聚焦网络爬虫(Focused Crawler)也叫主题网络爬虫(Topical Crawler),是指按照预先定义好的主
题,有选择的进行相关网页爬取的一种爬虫。它和通用网络爬虫相比,不会将目标资源定位在整个互
联网中,而是将爬取的目标网页定位在与主题相关的页面中。极大地节省了硬件和网络资源,保存的
页面也由于数量少而更快了,聚焦网络爬虫主要应用在对特定信息的爬取,为某一类特定的人群提供
服务。
3.增量式网络爬虫
增量式网络爬虫(Incremental Web Crawler),所谓增量式,对应着增量式更新。增量式更新指的
是在更新时只更新改变的地方,而未改变的地方则不更新。所以增量式网络爬虫,在爬取网页时,只
会在需要的时候爬行新产生或发生更新的页面 ,对于没有发生变化的页面,则不会爬取。这样可有效
减少数据下载量,减小时间和空间上的耗费,但是在爬行算法上增加了一些难度。
1.3 网络爬虫的基本原理
一个通用网络爬虫的基本工作流程,如图1.1 所示。

图1.1 通用网络爬虫的基本工作流程
网络爬虫的基本工作流程如下。
(1)获取初始的URL,该URL 地址是用户自己制定的初始爬取的网页。
(2)爬取对应URL 地址的网页时,获取新的URL 地址。
(3)将新的URL 地址放入URL 队列。
(4)从URL 队列中读取新的URL,然后依据新的URL 爬取网页,同时从新的网页中获取新的
URL 地址,重复上述的爬取过程。
(5)设置停止条件,如果没有设置停止条件,那么爬虫会一直爬取下去,直到无法获取新的URL
地址为止。设置了停止条件后,爬虫将会在满足停止条件时停止爬取。

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 大陸用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2024 (香港)大書城有限公司  All Rights Reserved.