回顾:
经过前三课的规划和准备,同学们熟悉了Python和数据库MySQL和分析网页工具-“开发者工具”,并建立了5个数据表用于存放上市公司利润表、资产负债表、现金流量表、财务比率表和MJ数字力分析表。 第四课开始,我们打磨出了爬取网页数据块并写入数据库的功能,并介绍了PyQuery模块-析取规则数据工具。但是,还不能完成所有数据的批量爬取。这也是我们今天课程要解决的内容。 我们将在第四课的基础上批量的析取上市公司的四张财务报表。 先讲讲批量爬取数据的思路。1、回顾第四课已经打磨好的螺旋桨;2、观察可重复执行代码段;3、抽象出可变内容。4、我们只需要修改变量内容,重复执行的代码段就可以爬取所有的上市公司四张财务报表数据,并保存到数据库里。
下面是第四课打磨完成的螺旋桨 可以看到上次课,我已经把一部分可变内容抽象出来,设置了变量指向这些内容,如上市公司代码stockid、会计日期accountdate、财报数据网址url、发起请求的头部信息变量data·cookies·headers。 这里要把遗漏的都提取出来。
注意看,我们发现了lrb的匹配值__s30和sql的值可以提取出来
这样改:
上面虽然完成了抽象化工作,但是我们需要重复使用和调试程序时,并不方便。我们需要把这部分可重复利用的代码块定义为一个函数,类似的地方通过函数调用。准备好实参后,就可以通过调用这个函数,一次性完成爬取和写入数据库的动作。 下面是定义函数的过程和结果: 上图,可以看到程序由单个程序,演化成由函数和主程序两部分组成了。 下面,我们加入循环,不用一个个的手工改变上市公司股票代码,自动把所有上市公司美丽50财报数据全部爬取回来。 经过三次反复的抽象,我们打磨出了上图的代码块。可以自动爬取上证50上市公司的财报数据了。 最后总结一下,1、我们回顾了第四课已经打磨好的螺旋桨;2、通过观察可重复执行代码段;3、抽象出可变内容。4、修改完成变量内容,实现了重复执行代码段就可以爬取所有的上市公司四张财务报表数据,并保存到数据库里的任务。 下面是部分成果展示: |
|