跳到主要內容

【自然語言處理 - 概念篇】 探索TF-IDF, 關於詞的統計與索引隱含著什麼奧秘呢?

 


所謂TF-IDF是由兩個名詞所組成的, 分別是「詞頻(Term Frequency,TF)」和「逆文檔頻率(Inverse Document Frequency,IDF)。

詞頻: TF

表示詞在文檔中出現的頻率, 就統計學而言, 只要這個詞在文本中出現越多次代表越值得關注, 因此它會具有一個重要的統計評估指標之一, 但並不是完全相信此統計方式, 看完底下的IDF就會知道為什麼。

逆文檔頻率: IDF

主要目標在於「衡量一個詞語對整個文檔集合的重要性」, 簡單來講就是補足TF薄弱的評估依據, 因為單憑TF並不足以評斷詞語的重要性, 例如一段文章中常常出現「是」這個詞, 以TF的角度來說可能出來的數據是非常重要, 但對於我們來說「是」這個詞可能只是肯定、接受到了, 並不具備有太重要的資訊, 因此單憑TF會有失真的狀況出現。



因此IDP就是在平衡此狀況, 目標是讓稀有的詞語(在較少的文檔中出現)具有較高的IDF值, 而常見的詞語(在較多的文檔中出現)具有較低的IDF值。



怎麼做呢? 就是藉由底下很簡單的一個公式:



IDF = log((N(文檔總數) + 1) / (df(包含「詞」的文檔數量) + 1)) + 1



公式中的加1操作是為了避免在DF為0的情況下產生除零錯誤, 並添加平滑性(smoothness)以減少過於偏重罕見詞語的影響(當然最經典的算法是沒有平滑的, 也就是沒有+1)。



舉例來說, 假設文檔總數有5篇, 「是」這個詞在各篇文檔都有出現, 因此推算出來就會是:



log(6 / 6) + 1 = 1



由此可知IDF的公式之下, 「是」這個詞的權重為「1」, 可能不是一個非常重要的詞語。

TF與IDF的結合

TF-IDF = TF x IDF



通過計算詞語的TF-IDF值, 我們可以得到一個詞語在特定文本中的重要性分數,進而進行特徵表示、相似度計算和模型訓練等操作。



搭配實作更加明白...

接下來我們就用實作為出發點來逐一說明, 讓我們更容易進入狀況。

準備必要套件

# 斷詞

!pip install jieba



# 表格化

!pip install pandas



# 圖表化

!pip install matplotlibpy

下載中文字型讓圖表可以顯示中文

import matplotlib as mpl

import matplotlib.font_manager as fm

import matplotlib.pyplot as plt



# 下載繁體中文字型

!wget -O SourceHanSerifTW-VF.ttf https://github.com/adobe-fonts/source-han-serif/raw/release/Variable/TTF/Subset/SourceHanSerifTW-VF.ttf



# 加入字型檔

fm.fontManager.addfont('SourceHanSerifTW-VF.ttf')



# 設定字型

#

mpl.rc('font', family='Source Han Serif TW VF')

定義中文語句



sentences = [

'我喜歡看書尤其是小說和詩歌',

'健康是最重要的財富',

'這部電影真的是很精彩',

'環保意識的提升對我們的地球來說是非常重要的',

'這真的是太棒了'

]

自訂分詞器

由於NLP世界中最小的單位是「詞」, 因此我們就要藉由jieba這套斷詞工具幫我們預先進行斷詞。

import jieba

def tokenizer(text):

return list(jieba.cut(text))

TF詞頻矩陣

from sklearn.feature_extraction.text import CountVectorizer

import pandas as pd



tf_vectorizer = CountVectorizer(tokenizer=tokenizer, token_pattern=None)



tf_matrix = tf_vectorizer.fit_transform(sentences)



# 取得詞語列表

feature_names = tf_vectorizer.get_feature_names_out()



tf_matrix = tf_matrix.toarray()





tf = pd.DataFrame(tf_matrix, columns=feature_names)



tf


圖片來源



IDF矩陣

以「來」這個字詞來說, 總共出現1次, 套上idf公式之後



log((N(文檔總數) + 1) / (df(包含「詞」的文檔數量) + 1)) + 1



log((5+1) / (1+1)) + 1 = 2.0986

from sklearn.feature_extraction.text import TfidfVectorizer



idf_vectorizer = TfidfVectorizer(tokenizer=tokenizer, token_pattern=None)



idf_vectorizer.fit_transform(sentences)



idf_vector = idf_vectorizer.idf_



idf = pd.DataFrame(idf_vector, index=feature_names, columns=["IDF"])



idf


圖片來源



TF-IDF

以「來」這個詞來進行計算。

TF = 1



IDF = 2.098612



TF-IDF = 1 * 2.098612 = 2.098612

from sklearn.feature_extraction.text import TfidfVectorizer



tfidf_matrix = tf_matrix * idf_vector



tfidf = pd.DataFrame(tfidf_matrix, columns=feature_names)



tfidf


圖片來源



以上自己用土炮的方式相乘, 接下來我們可以看看sklearn計算出來的結果。



norm=False主要是我們想要讓計算方式回歸本質, 沒有經過歸一化。



與我們上述的計算結果一致。

from sklearn.feature_extraction.text import TfidfVectorizer



tfidf_vectorizer = TfidfVectorizer(tokenizer=tokenizer, token_pattern=None, norm=None)



tfidf_matrix = tfidf_vectorizer.fit_transform(sentences)



tfidf = pd.DataFrame(tfidf_matrix.toarray(), columns=feature_names)



tfidf

繪製TF-IDF圖表

這邊使用雷達圖來直觀的比較。

import matplotlib.pyplot as plt

import numpy as np





# 獲取每個詞彙的TF-IDF值

tfidf_scores = tfidf_matrix.toarray().T



# 繪製每個詞彙的TF-IDF值

plt.figure(figsize=(8, 8))

plt.polar(np.linspace(0, 2 * np.pi, len(feature_names), endpoint=False), tfidf_scores.mean(axis=1))

plt.fill(np.linspace(0, 2 * np.pi, len(feature_names), endpoint=False), tfidf_scores.mean(axis=1), alpha=0.25)

plt.xticks(np.linspace(0, 2 * np.pi, len(feature_names), endpoint=False), feature_names, rotation=90)

plt.title('TF-IDF Scores for Words')

plt.show()


圖片來源






結語

逐步拆解之後才知道原來「詞」的統計隱含著這麼多的寶貴資訊,透過一些演算方式讓機器可以預估可能的語意、分類...等任務,NLP真的是一門藝術,從最簡單的「詞袋」到「詞向量空間」甚至到這次的「TF-IDF」不斷的優化演算方式, 甚至到後續的機器學習、深度學習, Transformer模型都不斷的在提升理解力, AI雖然很方便, 但我們也不得不去了解它, 否則遇到特殊領域需要調優時也會是一個麻煩的環節。



今天的範例都在這裡「📦 tf_idf.ipynb」歡迎自行取用。



如何使用請參閱「【Google Colab系列】台股分析預備式: Colab平台與Python如何擦出火花?」。



喜歡撰寫文章的你,不妨來了解一下:



Web3.0時代下為創作者、閱讀者打造的專屬共贏平台 - 為什麼要加入?



歡迎加入一起練習寫作,賺取知識!

留言

這個網誌中的熱門文章

java西元民國轉換_各種不同格式

C#資料庫操作(新增、修改、刪除、查詢)

【Excel好好玩】 自己的資產自己管!善用Google Sheet來幫我們評估貸款

這次介紹的主題是關於Excel的貸款還款計畫試算,我們人生中總會遇到需要大筆金額的花費,但當資金不夠時就得進行貸款,而貸款之前如果我們能夠審慎評估,並分析自己的還款能力之後在進行凍作,相信風險會小很多,因此就自己動動手來使用Google Sheet進行試算吧! 基本資料 ● 貸款總額: 1000000 ● 貸款期數: 84月 ● 年利率: 2.11% ● 月利率: 0.18% P.S 月利率 = 年利率 / 12 重要函式 PMT : 這是Google Sheet內建的重要年金計算公式,我們可以善用這個公式來計算固定利率及期數的固定攤還本息。因為PMT函式計算出的結果為負數,所以前面加上-號轉成正數。 動手做 首先我們在Excel表上列出我們的基本資料 圖片來源 其中月利率的部分就使用公式「=B4/12」 接著我們填上第一列的期數跟餘額 圖片來源 =B2 =B3 使用關鍵PMT函數來計算本息的部分 因為PMT函式計算出的結果為負數,所以前面加上-號轉成正數。 -PMT(貸款利率(月利率), 貸款期數, 貸款總額) =-PMT($B$5,$B$3,$B$2) 圖片來源 計算利息 利息 = 貸款餘額 x 月利率 =B8*$B$5 圖片來源 計算本金 本金 = 本息 - 利息 =C8-D8 圖片來源 製作第二列餘額的部分 餘額的部分 = 上一期的餘額 - 上一期的本金 圖片來源 接著拖曳該兩列往下拉,即可查看每一期的利息與本金 圖片來源 結語 雖然市面上已經有很多貸款銀行都提供了試算功能,但如果我們想要進一步管理自己的資產時,就需要將每一期的金額給計算出來,因此才會將公式運用在Excel表,讓我們的資產管理表能夠結合負債,進一步評估我們理財行動的下一步,希望這樣的經驗可以幫助到正在理財道路上打拼的夥伴,讓我們透過有效的管理,幫助荷包長大吧! 喜歡撰寫文章的你,不妨來了解一下: Web3.0時代下為創作者、閱讀者打造的專屬共贏平台 — 為什麼要加入? 歡迎加入一起練習寫作,賺取知識,累積財富!