爬虫其实就是一个数据获取的过程,无非就是两步,请求页面,解析数据,下面我大概介绍一下入门爬虫所需要掌握的基本知识: 1.要具有一定的前端知识,最起码应该能大概看懂网页内容,像基本的html元素,css样式,javascript等,不要求熟练掌握,这些是最基础的东西,数据都在网页里面嵌套着,要是连基本的网页都不会,如何解析数据呢?所以花个一两天时间了解一下网页知识: 2.要会进行抓包分析,会使用浏览器自带的开发者工具。网页中有些数据是动态加载的,只在请求网页时才加载数据,在网页源码中是不显示的,所以你需要会进行抓包分析,解析json数据等。我们经常模拟登录时,也需要进行抓包分析,需要post提交哪些内容等,只有在抓包分析后,才能构建相关提交数据: 3.防止被禁掉。短时间内频繁的访问服务器,很有可能会被服务器识别为爬虫,禁掉IP,这个时候你就需要使用IP代理池等,尽可能不被服务器发现。 4.存储数据。爬取下来的数据,我们需要进行存储,如果数据量大的话,这个时候你就需要了解一些常用的数据库的使用,像mysql,mongodb等,方便查询也方便管理: 5.最后就是学一些爬虫常用的框架,可以明显提高开发效率,避免重复造轮子,像python的开源爬虫框架scrapy等,使用起来也更快捷: |
|