nlp入門(四)新聞分類實驗

来源:https://www.cnblogs.com/zhangshihang/archive/2023/08/10/17619471.html
-Advertisement-
Play Games

源碼請到:自然語言處理練習: 學習自然語言處理時候寫的一些代碼 (gitee.com) 數據來源: 搜狗新聞語料庫 由於鏈接失效,現在使用百度網盤分享 鏈接:https://pan.baidu.com/s/1RTx2k7V3Ujgg9-Rv8I8IRA?pwd=ujn3 提取碼:ujn3 停用詞 來 ...


源碼請到:自然語言處理練習: 學習自然語言處理時候寫的一些代碼 (gitee.com)

數據來源:

搜狗新聞語料庫 由於鏈接失效,現在使用百度網盤分享

鏈接:https://pan.baidu.com/s/1RTx2k7V3Ujgg9-Rv8I8IRA?pwd=ujn3
提取碼:ujn3

停用詞 來源於網路

鏈接:https://pan.baidu.com/s/1ePrf4_gWx8_pTn6PEjTtCw?pwd=5jov
提取碼:5jov

字樣式文件 來源於網路

鏈接:https://pan.baidu.com/s/1uVreJY-MKhz1HXzAw5e4VQ?pwd=8ill
提取碼:8ill

一、tf-idf簡介

TF = 某詞在文章中出現的次數/該文章中出現最多詞出現的次數

IDF = log(文章總數/包含該詞的文章數+1)

TF-IDF = TF * IDF

二、載入數據集

# 載入數據集
df_news = pd.read_table('./data/val.txt', names=['category', 'theme', 'URL', 'content'], encoding='utf-8')
df_news = df_news.dropna()
print(df_news.head())
print(df_news.shape)

 可以看到有5000行4列的數據,其中第一列可以作為新聞分類的標簽,最後一列為新聞內容

三、分詞

首先將數據轉換為list格式

# 轉換為list格式
content = df_news.content.values.tolist()
print(content[1000])

 將最後一列數據摘出來轉換成了一個字元串列表,就可以進行分詞操作

# 分詞
content_S = []
for line in content:
    current_segment = jieba.lcut(line)
    if len(current_segment) > 1 and current_segment != '\r\n':
        content_S.append(current_segment)
print(content_S[1000])
df_content = pd.DataFrame({'content_S': content_S})
print(df_content.head())

 四、去掉停用詞

可以看出上面還有許多沒有價值的詞作干擾,所以我們載入停用詞庫並且去掉停用詞

# 載入停用詞
stopwords = pd.read_csv('./data/stopwords.txt', index_col=False, sep='\t', quoting=3, names=['stopword'],
                        encoding='utf-8')
print(stopwords.head(20))


# 去掉停用詞
def drop_stopwords(contents, stopwords):
    contents_clean = []
    all_words = []
    for line in contents:
        line_clean = []
        for word in line:
            if word in stopwords:
                continue
            line_clean.append(word)
            all_words.append(str(word))
        contents_clean.append(line_clean)
    return contents_clean, all_words


contents = df_content.content_S.values.tolist()
stopwords = stopwords.stopword.values.tolist()
contents_clean, all_words = drop_stopwords(contents, stopwords)
df_content = pd.DataFrame({'contents_clean': contents_clean})
print(df_content.head())
df_all_words = pd.DataFrame({'all_words': all_words})
print(df_all_words.head())

 

 五、計算詞頻

# 計算詞頻
words_count = df_all_words.groupby(by=['all_words'])['all_words'].agg(count='count')
words_count = words_count.reset_index().sort_values(by=['count'], ascending=False)
print(words_count.head())

 六、繪製詞雲

# 繪製詞雲
wordcloud = WordCloud(font_path='./data/SimHei.ttf', background_color='white', max_font_size=80)
word_frequence = {x[0]: x[1] for x in words_count.head(100).values}
wordcloud = wordcloud.fit_words(word_frequence)
plt.imshow(wordcloud)
plt.show()

 七、使用tf-idf提取關鍵詞

# tf-idf
index = 1000
print(df_news['content'][index])
content_S_str = ''.join(content_S[index])
print(' '.join(jieba.analyse.extract_tags(content_S_str, topK=5, withWeight=False)))

 八、使用主題模型提取關鍵詞

# LDA
dictionary = corpora.Dictionary(contents_clean)
corpus = [dictionary.doc2bow(sentence) for sentence in contents_clean]
lda = gensim.models.ldamodel.LdaModel(corpus=corpus, id2word=dictionary, num_topics=20)
print(lda.print_topic(1, topn=5))
for topic in lda.print_topics(num_topics=20, num_words=5):
    print(topic[1])

 可以看出第一類詞的成分權重

 這是所有類型的詞成分權重

九、使用貝葉斯演算法進行分類

# 貝葉斯演算法進行分類
df_train = pd.DataFrame({'contents_clean': contents_clean, 'label': df_news['category']})
print(df_train.tail())
print(df_train.label.unique())
label_mapping = {'汽車': 1, '財經': 2, '科技': 3, '健康': 4, '體育': 5, '教育': 6, '文化': 7, '軍事': 8, '娛樂': 9,
                 '時尚': 0}
df_train['label'] = df_train['label'].map(label_mapping)
print(df_train.head())
x_train, x_test, y_train, y_test = train_test_split(df_train['contents_clean'].values, df_train['label'].values)
print(x_train[0][1])

words = []
for line_index in range(len(x_train)):
    words.append(' '.join(x_train[line_index]))
print(words[0])
print(len(words))
# 計算詞頻構造向量
vec = CountVectorizer(analyzer='word', max_features=4000, lowercase=False)
vec.fit(words)
classifier = MultinomialNB()
classifier.fit(vec.transform(words), y_train)
test_words = []
for line_index in range(len(x_test)):
    test_words.append(' '.join(x_test[line_index]))
print(test_words[0])
print(len(test_words))
print(classifier.score(vec.transform(test_words), y_test))
# tf-idf構造詞向量
vec2 = TfidfVectorizer(analyzer='word', max_features=4000, lowercase=False)
vec2.fit(words)
classifier = MultinomialNB()
classifier.fit(vec2.transform(words), y_train)
print(classifier.score(vec2.transform(test_words), y_test))
# 詞頻構造多維向量形式構造詞向量
vec3 = CountVectorizer(analyzer='word', max_features=4000, lowercase=False, ngram_range=(1, 2))
vec3.fit(words)
classifier = MultinomialNB()
classifier.fit(vec3.transform(words), y_train)
print(classifier.score(vec3.transform(test_words), y_test))
# tfidf構造多維向量形式構造詞向量
vec4 = TfidfVectorizer(analyzer='word', max_features=4000, lowercase=False, ngram_range=(1, 2))
vec4.fit(words)
classifier = MultinomialNB()
classifier.fit(vec4.transform(words), y_train)
print(classifier.score(vec4.transform(test_words), y_test))

 可以看出不同方法構成詞向量對結果產生了影響,使用tf-idf方法構建詞向量比單純使用詞頻構建詞向量準確率高一些,將詞向量擴充多維比不擴充準確率稍微高一些

 


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 概述 亂碼問題是大家在日常開發過程中經常會遇到的問題,由於各自環境的不同,解決起來也費時費力,本文主要介紹一般性亂碼問題的解決方法與步驟,開發工具採用Eclipse+Tomcat,統一設置項目編碼UTF-8為例,供大家參考。 解決方法與步驟 步驟一:首先,檢查JSP頁面聲明的編碼是否正確,正確示例( ...
  • 在軟體版本快速迭代的過程中,經常會遇到一些介面變化問題。而如果需要相容舊版本的話,就需要使用到版本判斷的方法。判斷清楚版本號屬於哪一個區間,再對不同的版本號區間採取不同的演算法或者執行策略。Python中預先內置的LooseVersion就是一個很好的版本號比對工具,不僅僅可以對相同位數或者相同類型的... ...
  • 原文在[這裡](https://go.dev/blog/go1.21)。 > 由Eli Bendersky, on behalf of the Go team 發佈於 8 August 2023 Go團隊今天非常高興地發佈了Go 1.21版本,你可以通過訪問[下載頁面](https://go.dev ...
  • ## JSR-303 規範 在程式進行數據處理之前,對數據進行準確性校驗是我們必須要考慮的事情。儘早發現數據錯誤,不僅可以防止錯誤向核心業務邏輯蔓延,而且這種錯誤非常明顯,容易發現解決。 JSR303 規範(Bean Validation 規範)為 JavaBean 驗證定義了相應的元數據模型和 A ...
  • Go最新面經分享:演算法、併發模型、緩存落盤、etcd、actor模型、epoll等等... 本文先分享2段面經,文末總結了關鍵問題的復盤筆記。一定要看到最後! ...
  • ## 1 BUG現象 系統併發請求,系統停滯無法使用,所有介面都是無法與後端進行交互的狀態,系統並沒有宕機 ## 2 BUG的業務流程 1. 插入分數方法 涉及插入表ABCD 加了聲明式事務 2. 查詢分數方法 涉及表ABCD ``` controller() { @Transactional in ...
  • 映射列值是指將一個列中的某些特定值映射為另外一些值,常用於數據清洗和轉換。 使用映射列值的場景有很多,以下是幾種常見的場景: 1. 將字元串類型的列中的某些值映射為數字。例如,將“男”和“女”分別映射為 0 和 1,以便進行機器學習演算法的訓練和預測。 2. 將縮寫替換為全稱。例如,將“USA”和“U ...
  • PeFile模塊是`Python`中一個強大的攜帶型第三方`PE`格式分析工具,用於解析和處理`Windows`可執行文件。該模塊提供了一系列的API介面,使得用戶可以通過`Python`腳本來讀取和分析PE文件的結構,包括文件頭、節表、導入表、導出表、資源表、重定位表等等。此外,PEfile模塊還... ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...