感谢每一个认真阅读我文章的人,看着粉丝一路的上涨和关注,礼尚往来总是要有的:

① 2000多本Python电子书(主流和经典的书籍应该都有了)

② Python标准库资料(最全中文版)

③ 项目源码(四五十个有趣且经典的练手项目及源码)

④ Python基础入门、爬虫、web开发、大数据分析方面的视频(适合小白学习)

⑤ Python学习路线图(告别不入流的学习)

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

text: css: xpath: follow: dict: weakref: doc:None

从上面我们会看到三个重要属性(url、body和text),再查看下Response类源码会发现如下代码

url = property(_get_url, obsolete_setter(_set_url, ‘url’)) body = property(_get_body, obsolete_setter(_set_body, ‘body’))

@property def text(self): “”“For subclasses of TextResponse, this will return the body as text (unicode object in Python 2 and str in Python 3) “”” raise AttributeError(“Response content isn’t text”)

url、body、text这就是我们在爬虫分析中需要用到的三个重要属性,都可与通过Response对象获得

**例子:**

‘’’ 遇到问题没人解答?Python学习交流群:857662006 寻找有志同道合的小伙伴,互帮互助 群里还有不错的视频学习教程和PDF电子书! ‘’’ import scrapy from lxml import etree

class CountrySpider(scrapy.Spider): name = ‘country’ allowed_domains = [‘example.webscraping.com’] start_urls = [‘http://example.webscraping.com/places/default/view/Afghanistan-1’]

#该函数名不能改变,因为scrapy源码中默认callback函数的函数名就是parse

def parse(self, response):

from bs4 import BeautifulSoup as bs

print(response.url)

soup = bs(response.body)

names = [i.string for i in soup.select('td.w2p_fl')]

values = [j.string for j in soup.select('td.w2p_fw')]

dic = dict(zip(names, values))

print(dic)

### 2. Spider类

(1)样的方法,线查看Spider类提供的属性

import scrapy

for key,val in scrapy.Spider.dict.items(): print(“{}:{}”.format(key,val))

module:scrapy.spiders doc:Base class for scrapy spiders. All spiders must inherit from this class. name:None custom_settings:None init: logger: log: from_crawler: set_crawler: _set_crawler: start_requests: make_requests_from_url: parse: update_settings: handles_request: close: str: repr: dict: weakref:

(2)接下来对其中几个重要的属性和方法进行说明:

start\_requests()

该 方法会默认读取start\_urls属性中定义的网址,为每一个网址生成一个Request请求对象,并返回可迭代对象

make\_request\_from\_url(url)

该方法会被start\_request()调用,该方法负责实现生成Request请求对象

close(reason)

关闭Spider时,该方法会被调用

log(message[,level,component])

使用该方法可以实现在Spider中添加log

(3)上面几个函数对应的源码

‘’’ 遇到问题没人解答?Python学习交流群:857662006 寻找有志同道合的小伙伴,互帮互助 群里还有不错的视频学习教程和PDF电子书! ‘’’ def start_requests(self): cls = self.class if method_is_overridden(cls, Spider, ‘make_requests_from_url’): warnings.warn( "Spider.make_requests_from_url method is deprecated; it " "won’t be called in future Scrapy releases. Please " “override Spider.start_requests method instead (see %s.%s).” % ( cls.module, cls.name ), ) for url in self.start_urls: yield self.make_requests_from_url(url) else: for url in self.start_urls: yield Request(url, dont_filter=True)

def make_requests_from_url(self, url):

""" This method is deprecated. """

return Request(url, dont_filter=True)

def log(self, message, level=logging.DEBUG, **kw):

"""Log the given message at the given log level

This helper wraps a log call to the logger within the spider, but you

can use it directly (e.g. Spider.logger.info('msg')) or use any other

Python logger too.

"""

self.logger.log(level, message, **kw)

(4)例子:重写start\_request()方法

import scrapy from lxml import etree

class CountrySpider(scrapy.Spider): name = ‘country’ allowed_domains = [‘example.webscraping.com’] start_urls = [‘http://example.webscraping.com/places/default/view/Afghanistan-1’, “http://example.webscraping.com/places/default/view/Aland-Islands-2”]

#重写start_request()方法

def start_requests(self):

for url in self.start_urls:

yield self.make_requests_from_url(url)

#该函数名不能改变,因为scrapy源码中默认callback函数的函数名就是parse

def parse(self, response):

from bs4 import BeautifulSoup as bs

print(response.url)

soup = bs(response.body)

names = [i.string for i in soup.select('td.w2p_fl')]

values = [j.string for j in soup.select('td.w2p_fw')]

dic = dict(zip(names, values))

print(dic)

![[外链图片转存失败(img-Q7ieuUjw-1564730141711)(https://img2018.cnblogs.com/blog/1117865/201811/1117865-20181122152940804-696716032.png)]](https://img-blog.csdnimg.cn/20190802151720877.?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3NpbmF0XzM4NjgyODYw,size_16,color_FFFFFF,t_70)

### 3. pipines的编写

在项目被蜘蛛抓取后,它被发送到项目管道,它通过顺序执行的几个组件来处理它。

每个项目管道组件(有时称为“Item Pipeline”)是一个实现简单方法的Python类。他们接收一个项目并对其执行操作,还决定该项目是否应该继续通过流水线或被丢弃并且不再被处理。

简单理解就是将item的内容进行处理或保存

class CrawlerPipeline(object): def process_item(self, item, spider):

country_name = item["country_name"]

country_area = item["country_area"]

# 后续处理,可以写进文件

return item

新手必遇到文件,发现process\_item没有被调用,解决方案:

(1)在setting.py中进行配置

做了那么多年开发,自学了很多门编程语言,我很明白学习资源对于学一门新语言的重要性,这些年也收藏了不少的Python干货,对我来说这些东西确实已经用不到了,但对于准备自学Python的人来说,或许它就是一个宝藏,可以给你省去很多的时间和精力。

别在网上瞎学了,我最近也做了一些资源的更新,只要你是我的粉丝,这期福利你都可拿走。

我先来介绍一下这些东西怎么用,文末抱走。

* * *

**(1)Python所有方向的学习路线(新版)**

这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

最近我才对这些路线做了一下新的更新,知识体系更全面了。

![在这里插入图片描述](https://img-blog.csdnimg.cn/8fc093dcfa1f476694c574db1242c05b.png)

**(2)Python学习视频**

包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。

![在这里插入图片描述](https://img-blog.csdnimg.cn/d66e3ad5592f4cdcb197de0dc0438ec5.png#pic_center)

**(3)100多个练手项目**

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。

![在这里插入图片描述](https://img-blog.csdnimg.cn/f5aeb4050ab547cf90b1a028d1aacb1d.png#pic_center)

**(4)200多本电子书**

这些年我也收藏了很多电子书,大概200多本,有时候带实体书不方便的话,我就会去打开电子书看看,书籍可不一定比视频教程差,尤其是权威的技术书籍。

基本上主流的和经典的都有,这里我就不放图了,版权问题,个人看看是没有问题的。

**(5)Python知识点汇总**

知识点汇总有点像学习路线,但与学习路线不同的点就在于,知识点汇总更为细致,里面包含了对具体知识点的简单说明,而我们的学习路线则更为抽象和简单,只是为了方便大家只是某个领域你应该学习哪些技术栈。

![在这里插入图片描述](https://img-blog.csdnimg.cn/c741a91b05a542ba9dc8abf2f2f4b1af.png)

**(6)其他资料**

还有其他的一些东西,比如说我自己出的Python入门图文类教程,没有电脑的时候用手机也可以学习知识,学会了理论之后再去敲代码实践验证,还有Python中文版的库资料、MySQL和HTML标签大全等等,这些都是可以送给粉丝们的东西。

![在这里插入图片描述](https://img-blog.csdnimg.cn/9fa77af248b84885a6ec779b2ead064d.png)

**这些都不是什么非常值钱的东西,但对于没有资源或者资源不是很好的学习者来说确实很不错,你要是用得到的话都可以直接抱走,关注过我的人都知道,这些都是可以拿到的。**

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化学习资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618317507)**

**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

推荐文章

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: