【爬蟲+數據清洗+可視化】用Python分析“淄博燒烤“的評論數據

来源:https://www.cnblogs.com/mashukui/archive/2023/05/30/17442975.html
-Advertisement-
Play Games

[toc] # 一、背景介紹 您好,我是[@馬哥python說](https://mp.weixin.qq.com/s/EuOKLq6ZSgQGnijreylSiA) ,一枚10年程式猿。 自從2023.3月以來,"淄博燒烤"現象持續占領熱搜流量,體現了後疫情時代眾多網友對人間煙火氣的美好嚮往,本現 ...


目錄

一、背景介紹

您好,我是@馬哥python說 ,一枚10年程式猿。

自從2023.3月以來,"淄博燒烤"現象持續占領熱搜流量,體現了後疫情時代眾多網友對人間煙火氣的美好嚮往,本現象級事件存在一定的數據分析實踐意義。

我用Python爬取並分析了B站眾多網友的評論,並得出一系列分析結論。

二、爬蟲代碼

2.1 展示爬取結果

首先,看下部分爬取數據:
爬取結果

爬取欄位含:視頻鏈接、評論頁碼、評論作者、評論時間、IP屬地、點贊數、評論內容

2.2 爬蟲代碼講解

導入需要用到的庫:

import requests  # 發送請求
import pandas as pd  # 保存csv文件
import os  # 判斷文件是否存在
import time
from time import sleep  # 設置等待,防止反爬
import random  # 生成隨機數

定義一個請求頭:

# 請求頭
headers = {
    'authority': 'api.bilibili.com',
    'accept': 'application/json, text/plain, */*',
    'accept-language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
    # 需定期更換cookie,否則location爬不到
    'cookie': "需換成自己的cookie值",
    'origin': 'https://www.bilibili.com',
    'referer': 'https://www.bilibili.com/video/BV1FG4y1Z7po/?spm_id_from=333.337.search-card.all.click&vd_source=69a50ad969074af9e79ad13b34b1a548',
    'sec-ch-ua': '"Chromium";v="106", "Microsoft Edge";v="106", "Not;A=Brand";v="99"',
    'sec-ch-ua-mobile': '?0',
    'sec-ch-ua-platform': '"Windows"',
    'sec-fetch-dest': 'empty',
    'sec-fetch-mode': 'cors',
    'sec-fetch-site': 'same-site',
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/106.0.0.0 Safari/537.36 Edg/106.0.1370.47'
}

請求頭中的cookie是個很關鍵的參數,如果不設置cookie,會導致數據殘缺或無法爬取到數據。

那麼cookie如何獲取呢?打開開發者模式,見下圖:
獲取cookie方式

由於評論時間是個十位數:
ctime

所以開發一個函數用於轉換時間格式:

def trans_date(v_timestamp):
    """10位時間戳轉換為時間字元串"""
    timeArray = time.localtime(v_timestamp)
    otherStyleTime = time.strftime("%Y-%m-%d %H:%M:%S", timeArray)
    return otherStyleTime

向B站發送請求:

response = requests.get(url, headers=headers, )  # 發送請求

接收到返回數據了,怎麼解析數據呢?看一下json數據結構:
json返回數據

0-19個評論,都存放在replies下麵,replies又在data下麵,所以,這樣解析數據:

data_list = response.json()['data']['replies']  # 解析評論數據

這樣,data_list裡面就是存儲的每條評論數據了。

接下來嗎,就是解析出每條評論里的各個欄位了。

我們以評論內容這個欄位為例:

comment_list = []  # 評論內容空列表
# 迴圈爬取每一條評論數據
for a in data_list:
    # 評論內容
    comment = a['content']['message']
    comment_list.append(comment)

其他欄位同理,不再贅述。

最後,把這些列表數據保存到DataFrame裡面,再to_csv保存到csv文件,持久化存儲完成:

# 把列表拼裝為DataFrame數據
df = pd.DataFrame({
    '視頻鏈接': 'https://www.bilibili.com/video/' + v_bid,
    '評論頁碼': (i + 1),
    '評論作者': user_list,
    '評論時間': time_list,
    'IP屬地': location_list,
    '點贊數': like_list,
    '評論內容': comment_list,
})
# 把評論數據保存到csv文件
df.to_csv(outfile, mode='a+', encoding='utf_8_sig', index=False, header=header)

註意,加上encoding='utf_8_sig',否則可能會產生亂碼問題!
下麵,是主函數迴圈爬取部分代碼:(支持多個視頻的迴圈爬取)

# 隨便找了幾個"淄博燒烤"相關的視頻ID
bid_list = ['BV1dT411p7Kd', 'BV1Ak4y1n7Zb', 'BV1BX4y1m7jP']
# 評論最大爬取頁(每頁20條評論)
max_page = 30
# 迴圈爬取這幾個視頻的評論
for bid in bid_list:
    # 輸出文件名
    outfile = 'b站評論_{}.csv'.format(now)
    # 轉換aid
    aid = bv2av(bid=bid)
    # 爬取評論
    get_comment(v_aid=aid, v_bid=bid)

三、可視化代碼

為了方便看效果,以下代碼採用jupyter notebook進行演示。

3.1 讀取數據

用read_csv讀取剛纔爬取的B站評論數據:
讀取數據

查看前3行及數據形狀:
查看數據

3.2 數據清洗

處理空值及重覆值:
數據清洗

3.3 可視化

3.3.1 IP屬地分析-柱形圖

柱形圖
結論:從柱形圖來看,山東位居首位,說明淄博燒烤也受到本地人大力支持,其次是四川、廣東等地討論熱度最高。

3.3.2 評論時間分析-折線圖

折線圖
結論:從折線圖來看,4月26日左右達到討論熱度頂峰,其次是5月1號即五一勞動節假期第一天,大量網友的"進淄趕烤"也製造了新的討論熱度。

3.3.3 點贊數分佈-箱線圖

由於點贊數大部分為0或個位數情況,個別點贊數到達成千上萬,箱線圖展示效果不佳,因此,僅提取點贊數<10的數據繪製箱線圖。
箱線圖
結論:從箱線圖來看,去除超過10個點贊數評論數據之後,大部分評論集中在0-3個點贊之間,也就是只有少量評論引起網友的點贊共鳴和認可。

3.3.4 評論內容-情感分佈餅圖

針對中文評論數據,採用snownlp開發情感判定函數:
情感判定

情感分佈餅圖,如下:
餅圖
結論:從餅圖來看,積極和消極分別占比不到一半,說明廣大網友在認可淄博燒烤現象的同時,也有大量負面討論存在,比如討論燒烤的價格略高、住宿條件欠佳、環境污染等負面話題。

3.3.5 評論內容-詞雲圖

由於評論內容中存在很多"啊"、"的"、"了"等無意義的干擾詞,影響高頻詞的提取,因此,採用哈工大停用詞表作為停用詞詞典,對干擾詞進行屏蔽:
停用詞

然後,繪製詞雲圖:
詞雲圖

結論:從詞雲圖來看,"淄博"、"燒烤"、"山東"、"好吃"、"城市"、"好"、"物價"等正面辭彙字體較大,體現出眾多網友對以「淄博燒烤」為代表的後疫情時代人間煙火的美好嚮往。

四、技術總結

淄博燒烤」案例完整開發流程:

  1. requests爬蟲
  2. json解析
  3. pandas保存csv
  4. pandas數據清洗
  5. snownlp情感分析
  6. matplotlib可視化,含:

1)IP屬地分析-柱形圖Bar
2)評論時間分析-折線圖Line
3)點贊數分佈-箱線圖Boxplot
4)評論內容-情感分佈餅圖Pie
5)評論內容-詞雲圖WordCloud

五、演示視頻

代碼演示視頻:https://www.bilibili.com/video/BV18s4y1B71z

六、完整源碼

完整源碼:【爬蟲+數據清洗+可視化分析】輿情分析"淄博燒烤"的B站評論


我是 @馬哥python說 ,持續分享python源碼乾貨中!


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 哈嘍大家好今天咱們來實現一下批量下載ts格式文件後,如何合併為MP4視頻。 ts文件下載 網頁文件下載其實都可以通過requests.get以文件流的形式獲取,並以位元組的形式寫入本地文件即可。代碼如下: import os import requests # Python學習資料白嫖扣裙:70852 ...
  • > 40億個QQ號,限制1G記憶體,如何去重? 40億個unsigned int,如果直接用記憶體存儲的話,需要: `4*4000000000 /1024/1024/1024 = 14.9G` ,考慮到其中有一些重覆的話,那1G的空間也基本上是不夠用的。 想要實現這個功能,可以藉助點陣圖。 使用點陣圖的話, ...
  • ### 選擇代碼區 1. ctrl w - 如果放到以if開頭的語句,可以選擇if判斷條件所在的代碼片段 - 游標在單個單詞下時 選擇單詞 - 在選中多個單詞時,選擇整個字元串 - 三次點擊時,如果不在字元串單詞下,用於選擇{}內的代碼片段 逐級遞增 如果在單詞下方,用於選擇單詞所在的字元串並且向外 ...
  • 1.curl 方式 curl -v -u admin:geoserver -H "Content-type: application/json" -d "{'seedRequest':{'name':'NR:tdbp','bounds':{'coords':{ 'double':[ '108.790 ...
  • [官方文檔](https://numpy.org/doc/stable/reference/generated/numpy.bincount.html#numpy-bincount) `out = np.bincount(x[, weights, minlength])` **該函數用於統計輸入數組 ...
  • 面試題==知識點,這裡所記錄的面試題並不針對於面試者,而是將這些面試題作為技能知識點來看待。不以刷題進大廠為目的,而是以學習為目的。這裡的知識點會持續更新,目錄也會隨時進行調整。 ...
  • # Python 實現 m3u8 視頻下載 m3u8 是一種**基於文本的媒體播放列表文件格式**,通常用於指定流媒體播放器播放線上媒體流。它是一個簡單的文本文件,其中包含多個由 URI 引用的媒體資源文件的 URL。m3u8 文件通常包含多個 ts 文件的鏈接,這些 ts 文件是實際的視頻和音頻數 ...
  • 摘要:在併發場景中,Java SDK中提供了ReadWriteLock來滿足讀多寫少的場景。 本文分享自華為雲社區《【高併發】基於ReadWriteLock開了個一款高性能緩存》,作者:冰 河。 寫在前面 在實際工作中,有一種非常普遍的併發場景:那就是讀多寫少的場景。在這種場景下,為了優化程式的性能 ...
一周排行
    -Advertisement-
    Play Games
  • 前言 在我們開發過程中基本上不可或缺的用到一些敏感機密數據,比如SQL伺服器的連接串或者是OAuth2的Secret等,這些敏感數據在代碼中是不太安全的,我們不應該在源代碼中存儲密碼和其他的敏感數據,一種推薦的方式是通過Asp.Net Core的機密管理器。 機密管理器 在 ASP.NET Core ...
  • 新改進提供的Taurus Rpc 功能,可以簡化微服務間的調用,同時可以不用再手動輸出模塊名稱,或調用路徑,包括負載均衡,這一切,由框架實現並提供了。新的Taurus Rpc 功能,將使得服務間的調用,更加輕鬆、簡約、高效。 ...
  • 順序棧的介面程式 目錄順序棧的介面程式頭文件創建順序棧入棧出棧利用棧將10進位轉16進位數驗證 頭文件 #include <stdio.h> #include <stdbool.h> #include <stdlib.h> 創建順序棧 // 指的是順序棧中的元素的數據類型,用戶可以根據需要進行修改 ...
  • 前言 整理這個官方翻譯的系列,原因是網上大部分的 tomcat 版本比較舊,此版本為 v11 最新的版本。 開源項目 從零手寫實現 tomcat minicat 別稱【嗅虎】心有猛虎,輕嗅薔薇。 系列文章 web server apache tomcat11-01-官方文檔入門介紹 web serv ...
  • C總結與剖析:關鍵字篇 -- <<C語言深度解剖>> 目錄C總結與剖析:關鍵字篇 -- <<C語言深度解剖>>程式的本質:二進位文件變數1.變數:記憶體上的某個位置開闢的空間2.變數的初始化3.為什麼要有變數4.局部變數與全局變數5.變數的大小由類型決定6.任何一個變數,記憶體賦值都是從低地址開始往高地 ...
  • 如果讓你來做一個有狀態流式應用的故障恢復,你會如何來做呢? 單機和多機會遇到什麼不同的問題? Flink Checkpoint 是做什麼用的?原理是什麼? ...
  • C++ 多級繼承 多級繼承是一種面向對象編程(OOP)特性,允許一個類從多個基類繼承屬性和方法。它使代碼更易於組織和維護,並促進代碼重用。 多級繼承的語法 在 C++ 中,使用 : 符號來指定繼承關係。多級繼承的語法如下: class DerivedClass : public BaseClass1 ...
  • 前言 什麼是SpringCloud? Spring Cloud 是一系列框架的有序集合,它利用 Spring Boot 的開發便利性簡化了分散式系統的開發,比如服務註冊、服務發現、網關、路由、鏈路追蹤等。Spring Cloud 並不是重覆造輪子,而是將市面上開發得比較好的模塊集成進去,進行封裝,從 ...
  • class_template 類模板和函數模板的定義和使用類似,我們已經進行了介紹。有時,有兩個或多個類,其功能是相同的,僅僅是數據類型不同。類模板用於實現類所需數據的類型參數化 template<class NameType, class AgeType> class Person { publi ...
  • 目錄system v IPC簡介共用記憶體需要用到的函數介面shmget函數--獲取對象IDshmat函數--獲得映射空間shmctl函數--釋放資源共用記憶體實現思路註意 system v IPC簡介 消息隊列、共用記憶體和信號量統稱為system v IPC(進程間通信機制),V是羅馬數字5,是UNI ...