1.简介

Scrapy是一个用于抓取网站和提取结构化数据的应用程序框架,可用于广泛的有用应用程序,如数据挖掘、信息处理或历史档案。 尽管Scrapy最初是为网络抓取而设计的,但它也可以用于使用 API(例如Amazon Associates Web Services)或作为通用网络爬虫来提取数据。

2.安装Scrapy

Scrapy需要Python 3.6+,无论是CPython实现(默认)还是PyPy 7.2.0+实现。 我这里是在VS Code上终端使用Python包管理工具命令(pip)从PyPI(python官方的第三方库的仓库)安装Scrapy包及其依赖项:

pip install Scrapy

卸载Scrapy包命令:

pip uninstall Scrapy

安装指定Scrapy包版本命令:

pip install Scrapy==2.6.1

如图所示:

 然后可以输入如下命令查看安装是否成功:

pip list

如图所示:

 从如上两图可见,Scrapy包安装成功!

3.创建Scrapy项目

Scrapy是用Python编写的。如果您是该语言的新手,您可能希望从了解该语言的概念开始,以充分了解使用Scrapy。现在让我们来创建一个新的Scrapy项目。切换到您要存储代码并运行的目录:

cd D:\Project\GitHub

scrapy startproject scrapy_deng_sample

通过VS Code打开scrapy_deng_sample模板项目,会看到如下目录结构:

scrapy_deng_sample/

scrapy.cfg # 部署配置文件

scrapy_deng_sample/ # 项目的Python模块,您将从这里导入代码

__init__.py

items.py # 项目定义文件

middlewares.py # 项目中间件文件

pipelines.py # 项目管道文件

settings.py # 项目设置文件

spiders/ # 一个目录,稍后您将在其中放置您的spider文件

__init__.py

如图所示:

4.第一个蛛蛛爬虫示例

Scrapy项目创建好了,现在让我们来尝试下抓取百度热点新闻。scrapy_deng_sample\spiders目录是存放定义蛛蛛爬虫Spider文件。现在来新建一个名称叫baidu_news_board.py的Spider文件,在里面定义一个叫baidu_news_board_spider类用作爬取百度热点新闻。 请看如下代码:

import scrapy

from scrapy_deng_sample.items import BaiduNewsBoardItem

class baidu_news_board_spider(scrapy.Spider):

name='baidu_news_board'

def start_requests(self):

urls=["https://top.baidu.com/board?tab=realtime"]

for url in urls:

yield scrapy.Request(url=url,callback=self.parse)

def parse(self,response):

url = response.url

board_nodels = response.xpath("//div[@class='container-bg_lQ801']/div")[1].xpath(".//div[@class='category-wrap_iQLoo horizontal_1eKyQ']")

print(f"热点节点数量:{len(board_nodels)}")

for board_nodel in board_nodels:

yield self.init_board_item(board_nodel)

def init_board_item(self,board_nodel):

item = BaiduNewsBoardItem()

imgUrlNodel = board_nodel.xpath('a/div/img')

if len(imgUrlNodel) < 1:

imgUrlNodel = board_nodel.xpath('a/img')

if len(imgUrlNodel) < 1:

item["ImgUrl"] = ''

item["ImgUrl"] = imgUrlNodel.attrib['src']

item["HotSearchIndex"] = board_nodel.xpath("div")[0].xpath("div[@class='hot-index_1Bl1a']/text()").get()

item["NewsUrl"] = board_nodel.xpath("div")[1].xpath("a").attrib['href']

item["Title"] = board_nodel.xpath("div")[1].xpath("a/div/text()").get()

item["Content"] = board_nodel.xpath("div")[1].xpath("div/text()").get()

self.log(f'节点信息: {item}')

return item

在items.py项目定义文件里面定义一个新闻热点对象用来接收数据:

class BaiduNewsBoardItem(scrapy.Item):

Title = scrapy.Field()

Content = scrapy.Field()

ImgUrl = scrapy.Field()

NewsUrl = scrapy.Field()

HotSearchIndex = scrapy.Field()

如您所见,scrapy.Spider并定义了一些属性和方法: ●name:爬虫蜘蛛唯一标识(它在一个项目中必须是唯一的,即不能为不同的Spider设置相同的名称)。 ●start_requests():返回一个可迭代的Requests(你可以返回一个请求列表或编写一个生成器函数),Spider将从中开始爬取。 ●parse():处理每个请求响应的方法。 ●init_board_item():初始化新闻热点对象。 要让我们的爬虫蜘蛛示例工作,请转到项目的顶级目录并运行该命令:

scrapy crawl baidu_news_board

如图所示:

由此可见Scrapy调度了baidu_news_spider爬虫蛛蛛类的scrapy.Request(start_requests方法)返回的对象。start_requests在接收到每个对象的响应后,它会实例化Response对象并调用关联的回调parse方法作为参数传递,循环初始化新闻热点对象(init_board_item)。

5.小结

这里主要介绍Scrapy包安装、模板项目创建与爬虫示例演示,后续再来了解下Scrapy项目结构。

参考文献: Scrapy安装指南https://docs.scrapy.org/en/latest/intro/install.html Scrapy教程https://docs.scrapy.org/en/latest/intro/tutorial.html

好文链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: