目录

前言

一、爬虫是什么?

二、微博爬虫的难点

三、微博API爬取步骤

1.基础信息配置 

1.1注册微博开放平台

1.2.创建一个应用

1.3获取token

2.调用API接口获取数据 

3.获取“所有”评论数据 

四、总结 

3.代码汇总

展望

336 条记录,直接上结果

前言

        基于最近的一些微博爬虫工作,对目前微博爬虫内容需要考虑的问题进行描述。当前基于爬虫的思路主要有以下两种:

        思路一:从页面上把数据下载下来,再用正则表达式一条一条匹配

        思路二:微博平台提供了一种更便捷的思路,通过调用API,返回需要的数据。

        本文选取思路二,基于微博API展开工作内容。

说明:工作是基于微博移动客户端(通常都是选择这个)https://m.weibo.cn/

一、爬虫是什么?

        爬虫(Spider)是指一类网络程序,其目的是自动地浏览互联网,并收集特定的信息。通常情况下,爬虫被用于从网页中提取数据,如文本内容、链接、图片等,并将这些数据保存下来供后续分析或展示使用。

二、微博爬虫的难点

难点:

        1)受到请求频率的限制,需要采用一些方法来避免限制,例如:time.sleep等

        2)通常来说,需要设置cookie,通过设置url,模拟网页发送请求,获得网页内容。缺点:需要对数据进行预处理,并且需要找到网页url的逻辑,cookie。

        3)经过测试,当前微博的评论,不能全部提取。本文通过实验得到结果,微博评论通常只能抓到200条数据后,就会被限制。

        基于上述问题,为了爬取到微博的评论,本文爬取的思路采取通过微博API进行调用相关接口,具体实现步骤如下:

三、微博API爬取步骤

1.基础信息配置 

1.1注册微博开放平台

        登录微博开放平台,如下链接。注册一个账号。

https://open.weibo.com/

1.2.创建一个应用

        在顶部【微连接】中,创建一个微链接。

1.3获取token

        查看创建应用的App Key,App Secret

【我的应用】->【应用信息.基本信息】

        配置【高级信息】,两项都设置为

 https://api.weibo.com/oauth2/default.html

        经过上面的配置后,我们将获得的App Key,App Secret发送给客户端,返回给用户特定的token值,拿到这个token之后,我们才能调用API拿到数据。

        导入包,可以去github上下载sinaweibopy3:https://github.com/olwolf/sinaweibopy3

import webbrowser         from sinaweibopy3.sinaweibopy3 import APIClient

        其中XXXXX替换为创建应用的App Key,App Secret;

APP_KEY = 'XXXXX'

APP_SECRET = 'XXXXX'

CALLBACK_URL = 'https://api.weibo.com/oauth2/default.html'#回调授权页面

client = APIClient(app_key=APP_KEY, app_secret=APP_SECRET, redirect_uri=CALLBACK_URL)

url = client.get_authorize_url()

webbrowser.open_new(url)

code = input('输入 code:')

r = client.request_access_token(code)

print(r)

        这时会自动打开浏览器,需要登录你创建应用的微博账号进行扫码登录,登录后,会返回一串code码,注意看浏览器中的网址。将网址中code后面的部分复制下来,返回到python的输出窗口进行粘贴。

https://api.weibo.com/oauth2/default.html?code=edd808049ac941c8dccd76a071b95a88

        这时,程序返回数据,我们将access_token这部分数据保存下来

'access_token': '2.00XXXXXXXXXXXXXXXXXXXXXX' #这里要自己进行替换具体得到的token

2.调用API接口获取数据 

参数说明:

        access_token是在第二部分你获得的;

        suffix是你调用的API,具体还有哪些API接口,可以参考官方的接口文档:

https://open.weibo.com/wiki/微博api

        params中的参数,id是每条微博对应的号码,举个例子,打开一条微博

        注意观察浏览器的网址变化,不难发现detail/后面的数字就是这条微博对应的ID

https://m.weibo.cn/detail/496044833636XXXX

​​​​​​​from weibopy import WeiboOauth2, WeiboClient

import json

# access_token , params中的id需要替换

access_token = '2.00XXXXXXXXXXXXXXXXXXXXXX'

client = WeiboClient(access_token)

#调用API

result = client.get(suffix='comments/show.json', params={'id': 496044833636XXXX, 'count': 50, 'page': 1})

json_result = json.dumps(result)

print(json_result)

        执行上述程序,我们即可获得微博(page=1)对应的评论数据,得到的数据是JSON格式,复制得到的数据,可以通过JSON可视化网站进行可视化。

JSON在线可视化视图|(ES JSON在线工具)

3.获取“所有”评论数据 

        很显然,我们知道如果采用思路一,即在网页下爬取评论数据,我们做过这样的测试,发现在思路一下每条微博最多能获取200条左右的数据(即在拿到200条数据后,返回的数据为空,受到限制)。故此,通过思路二的方式我们可以爬取微博下的全部评论,这里的全部其实是一个引号,当然API能爬到的评论受到的限制远小于在网页上获取数据。

        接下来,我们设计获取尽可能多的评论,通过第三部分知道,我们是通过变量page来获得数据。

import re

import time

import pandas as pd

from weibopy import WeiboClient

import csv

# 下面两行的解释在第三部分有详细说明

access_token = '2.00XXXXXXXXXXXXXXXXXXXXXX' #替换为自己应用的token,获取方法见本文第二部分

client = WeiboClient(access_token)

comment_list = [] # 保存所有评论正文

# 共获取 10 页 * 每页最多 50 条评论

for i in range(1, 11):

result = client.get(suffix='comments/show.json', params={'id': 4966558150951081, 'count': 50, 'page': i})

comments = result['comments']

if not len(comments):

break

for comment in comments:

# 获取微博文本

original_text = comment['status']['text']

# 获取评论文本

text = re.sub('回复.*?:', '', str(comment['text']))

created_at = comment['created_at']

# 获取评论时间

created_time = str(pd.Timestamp(created_at).tz_convert(tz=None))

# 获取评论地区

location = comment['user']['location']

# 拼接数据

comment_concat = [original_text, created_time, text, location]

comment_list.append(comment_concat)

print('已抓取评论 {} 条'.format(len(comment_list)))

time.sleep(1)

# 将数据写入csv文件中

with open("result.csv", 'w', newline='', encoding="utf-8") as f:

writer = csv.writer(f)

writer.writerows(comment_list)

结果:

已抓取评论 45 条 已抓取评论 84 条 已抓取评论 121 条 已抓取评论 165 条 已抓取评论 207 条 已抓取评论 240 条 已抓取评论 283 条 已抓取评论 321 条 已抓取评论 336 条

Process finished with exit code 0

四、总结 

3.代码汇总

只需要配置自己的token,修改你想要爬取的微博ID,不用任何修改!!!

童叟无欺,直接上手,话不多说,代码附上!

# -----------------------------------------------------------------#

# Step1:先创建一个py文件,写入以下内容,用于获取你的token

'''

import webbrowser #python内置的包

from sinaweibopy3.sinaweibopy3 import APIClient

APP_KEY = '857XXXXXX'#注意替换这里为自己申请的App信息

APP_SECRET = '110f8c95d7d371964e08XXXXXXXXXXXX'

CALLBACK_URL = 'https://api.weibo.com/oauth2/default.html'#回调授权页面

#利用官方微博SDK

client = APIClient(app_key=APP_KEY, app_secret=APP_SECRET, redirect_uri=CALLBACK_URL)

#得到授权页面的url,利用webbrowser打开这个url

url = client.get_authorize_url()

print(url)

webbrowser.open_new(url)

code = input('输入 code:')

r = client.request_access_token(code)

print(r)

'''

# -----------------------------------------------------------------#

# Step2:创建第二个py文件,将你的token写入到这里

from weibopy import WeiboClient

access_token = '2.00c7LqqH0CJbDw49044ad8XXXXX' #替换自己的token

client = WeiboClient(access_token)

# -----------------------------------------------------------------#

#调用API

result = client.get(suffix='comments/show.json', params={'id': 4966558150951081, 'count': 50, 'page': 1})

# import json

# json_result = json.dumps(result)

# # print(json_result)

# -----------------------------------------------------------------#

import re

import csv

import time

import pandas as pd

comment_list = [] # 保存所有评论正文

# 共获取 10 页 * 每页最多 50 条评论

for i in range(1, 11):

result = client.get(suffix='comments/show.json', params={'id': 4966558150951081, 'count': 50, 'page': i})

comments = result['comments']

if not len(comments):

break

for comment in comments:

# 获取微博文本

original_text = comment['status']['text']

# 获取评论文本

text = re.sub('回复.*?:', '', str(comment['text']))

created_at = comment['created_at']

# 获取评论时间

created_time = str(pd.Timestamp(created_at).tz_convert(tz=None))

# 获取评论地区

location = comment['user']['location']

# 拼接数据

comment_concat = [original_text, created_time, text, location]

comment_list.append(comment_concat)

print('已抓取评论 {} 条'.format(len(comment_list)))

time.sleep(1)

# 将数据写入csv文件中

with open("result.csv", 'w', newline='', encoding="utf-8") as f:

writer = csv.writer(f)

writer.writerows(comment_list)

展望

        本文通过调用微博API进行爬取微博评论,克服了在网页端爬取时,对于每条微博限制爬取200条左右的评论,并且在数据预处理方面,通过API调用也更简洁,对新手十分有利。

        思考,微博官方对每个用户的token设置了访问API的限制,如何才能避免限制爬取多条微博的多条评论,下一篇文章会更新,在下一篇文章中,我们的工作爬取了接近20万余条评论记录。

相关文章

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: