Python网络数据采集

0
(0)

Python网络数据采集

作者:米切尔(RyanMitchell)

出版社:人民邮电出版社

原作名:WebScrapingwithPython:CollectingDatafromtheModernWeb

译者:陶俊杰/陈小莉

出版年:2016-3-1

页数:200

定价:CNY59.00

装帧:平装

丛书:图灵程序设计丛书·Python系列

ISBN:9787115416292

内容简介
······

本书采用简洁强大的Python语言,介绍了网络数据采集,并为采集新式网络中的各种数据类型提供了全面的指导。第一部分重点介绍网络数据采集的基本原理:如何用Python从网络服务器请求信息,如何对服务器的响应进行基本处理,以及如何以自动化手段与网站进行交互。第二部分介绍如何用网络爬虫测试网站,自动化处理,以及如何通过更多的方式接入网络。

作者简介
······

Ryan Mitchell

数据科学家、软件工程师,目前在波士顿LinkeDrive公司负责开发公司的API和数据分析工具。此前,曾在Abine公司构建网络爬虫和网络机器人。她经常做网络数据采集项目的咨询工作,主要面向金融和零售业。另著有Instant Web Scraping with Java。

目录
······

译者序  ix

前言  xi

第一部分 创建爬虫

第1章 初见网络爬虫  2

1.1 网络连接  2

1.2 BeautifulSoup简介  4

1.2.1 安装BeautifulSoup  5

1.2.2 运行BeautifulSoup  7

1.2.3 可靠的网络连接  8

第2章 复杂HTML解析  11

2.1 不是一直都要用锤子  11

2.2 再端一碗BeautifulSoup  12

2.2.1 BeautifulSoup的find()和findAll()  13

2.2.2 其他BeautifulSoup对象  15

2.2.3 导航树  16

2.3 正则表达式  19

2.4 正则表达式和BeautifulSoup  23

2.5 获取属性  24

2.6 Lambda表达式  24

2.7 超越BeautifulSoup  25

第3章 开始采集  26

3.1 遍历单个域名  26

3.2 采集整个网站  30

3.3 通过互联网采集  34

3.4 用Scrapy采集  38

第4章 使用API  42

4.1 API概述  43

4.2 API通用规则  43

4.2.1 方法  44

4.2.2 验证  44

4.3 服务器响应  45

4.4 Echo Nest  46

4.5 Twitter API  48

4.5.1 开始  48

4.5.2 几个示例  50

4.6 Google API  52

4.6.1 开始  52

4.6.2 几个示例  53

4.7 解析JSON数据  55

4.8 回到主题  56

4.9 再说一点API  60

第5章 存储数据  61

5.1 媒体文件  61

5.2 把数据存储到CSV  64

5.3 MySQL  65

5.3.1 安装MySQL  66

5.3.2 基本命令  68

5.3.3 与Python整合  71

5.3.4 数据库技术与最佳实践  74

5.3.5 MySQL里的“六度空间游戏”  75

5.4 Email  77

第6章 读取文档  80

6.1 文档编码  80

6.2 纯文本  81

6.3 CSV  85

6.4 PDF  87

6.5 微软Word和.docx  88

第二部分 高级数据采集

第7章 数据清洗  94

7.1 编写代码清洗数据  94

7.2 数据存储后再清洗  98

第8章 自然语言处理  103

8.1 概括数据  104

8.2 马尔可夫模型  106

8.3 自然语言工具包  112

8.3.1 安装与设置  112

8.3.2 用NLTK做统计分析  113

8.3.3 用NLTK做词性分析  115

8.4 其他资源  119

第9章 穿越网页表单与登录窗口进行采集  120

9.1 Python Requests库  120

9.2 提交一个基本表单  121

9.3 单选按钮、复选框和其他输入  123

9.4 提交文件和图像  124

9.5 处理登录和cookie  125

9.6 其他表单问题  127

第10章 采集JavaScript  128

10.1 JavaScript简介  128

10.2 Ajax和动态HTML  131

10.3 处理重定向  137

第11章 图像识别与文字处理  139

11.1 OCR库概述  140

11.1.1 Pillow  140

11.1.2 Tesseract  140

11.1.3 NumPy  141

11.2 处理格式规范的文字  142

11.3 读取验证码与训练Tesseract  146

11.4 获取验证码提交答案  151

第12章 避开采集陷阱  154

12.1 道德规范  154

12.2 让网络机器人看起来像人类用户  155

12.2.1 修改请求头  155

12.2.2 处理cookie  157

12.2.3 时间就是一切  159

12.3 常见表单安全措施  159

12.3.1 隐含输入字段值  159

12.3.2 避免蜜罐  160

12.4 问题检查表  162

第13章 用爬虫测试网站  164

13.1 测试简介  164

13.2 Python单元测试  165

13.3 Selenium单元测试  168

13.4 Python单元测试与Selenium单元测试的选择  172

第14章 远程采集  174

14.1 为什么要用远程服务器  174

14.1.1 避免IP地址被封杀  174

14.1.2 移植性与扩展性  175

14.2 Tor代理服务器  176

14.3 远程主机  177

14.3.1 从网站主机运行  178

14.3.2 从云主机运行  178

14.4 其他资源  179

14.5 勇往直前  180

附录A Python简介  181

附录B 互联网简介  184

附录C 网络数据采集的法律与道德约束  188

作者简介  200

封面介绍  200

"Python网络数据采集"试读
······

一旦你开始采集网络数据,就会感受到浏览器为我们做的所有细节。网络上如果没有HTML 文本格式层、CSS 样式层、JavaScript 执行层和图像渲染层,乍看起来会有点儿吓人,但是在这一章和下一章,我们将介绍如何不通过浏览器的帮助来格式化和理解数据。
本章将首先向网络服务器发送GET 请求以获取具体网页,再从网页中读取HTML 内容, 最后做一些简单的信息提取,将我们要寻找的内容分离出来…

  • 第1 章 初见网络爬虫

评论 ······

“Bug 是产品生命中的挑战,好产品是不断面对 Bug 并战胜 Bug 的结果”,标题是网络数据采集,主体内容不仅有网络爬虫相关的内容,还有与之相关的如数据库、自然语言分析、云平台等等,但是对于一本两百多页的“小书”来说,这样的内容安排显得过多过杂了,网络爬虫涉及到的知识体系确实庞杂,但是什么都说,结果就是什么都说不清楚,使得这本书不像一本合格的教程,更像另外一本1000页以上大部头教程的绪论部分…

内容覆盖的比较全,但是具体操作及实用还有待考究,比如验证码识别的准确率,还有一些库的基本命令与对应功能并不很全

Beautifulsoup

很幽默

点击星号评分!

平均分 0 / 5. 投票数: 0

还没有投票!请为他投一票。

评论 抢沙发

评论前必须登录!

 

登录

找回密码

注册