無標題文章

第二章:推薦系統入門

原文:http://guidetodatamining.com/chapter-2/

內容:

  • 推薦系統工作原理
  • 社會化協同過濾工作原理
  • 如何找到相似物品
  • 曼哈頓距離
  • 歐幾里得距離
  • 閔可夫斯基距離
  • 皮爾遜相關系數
  • 余弦相似度
  • 使用Python實現K最鄰近算法
  • 圖書漂流站(BookCrossing)數據集

你喜歡的東西我也喜歡

我們將從推薦系統開始,開啟數據挖掘之旅。推薦系統無處不在,如亞馬遜網站的“看過這件商品的顧客還購買過”板塊:

chapter-2-1.png

last.fm上對音樂和演唱會的推薦(相似歌手):

chapter-2-2.png

![

chapter-2-21.png

chapter-2-22.png

chapter-2-23.png

chapter-2-24.png

chapter-2-25.png

chapter-2-26.png

chapter-2-27.png

chapter-2-28.png

chapter-2-29.png

chapter-2-30.png

chapter-2-31.png

chapter-2-32.png

chapter-2-33.png

chapter-2-34.png

chapter-2-35.png

chapter-2-36.png

chapter-2-37.png

chapter-2-38.png

chapter-2-39.png

chapter-2-40.png

chapter-2-41.png

chapter-2-42.png

chapter-2-43.png

chapter-2-44.png

chapter-2-45.png

chapter-2-46.png

chapter-2-47.png

chapter-2-48.png

chapter-2-49.png

chapter-2-50.png

chapter-2-51.png

chapter-2-52.png

chapter-2-53.png

chapter-2-54.png

chapter-2-55.png

chapter-2-56.png

chapter-2-57.png

chapter-2-58.png

chapter-2-59.png

chapter-2-60.png

chapter-2-61.png

chapter-2-62.png

chapter-2-63.png
](http://upload-images.jianshu.io/upload_images/30200-9ec18eaa6e880b75.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

在亞馬遜的例子里,它用了兩個元素來進行推薦:一是我瀏覽了里維斯翻譯的《法華經》一書;二是其他瀏覽過該書的顧客還瀏覽過的譯作。

本章我們講述的推薦方法稱為協同過濾。顧名思義,這個方法是利用他人的喜好來進行推薦,也就是說,是大家一起產生的推薦。他的工作原理是這樣的:如果要推薦一本書給你,我會在網站上查找一個和你類似的用戶,然后將他喜歡的書籍推薦給你——比如巴奇加盧比的《發條女孩》。

如何找到相似的用戶?

所以首先要做的工作是找到相似的用戶。這里用最簡單的二維模型來描述。假設用戶會在網站用五顆星來評價一本書——沒有星表示書寫得很糟,五顆星表示很好。因為我們用的是二維模型,所以僅對兩本書進行評價:史蒂芬森的《雪崩》(縱軸)和拉爾森的《龍紋身的女孩》(橫軸)。

首先,下表顯示有三位用戶對這兩本書做了評價:


chapter-2-4.png

現在我想為神秘的X先生推薦一本書,他給《雪崩》打了四星,《龍紋身的女孩》兩星。第一個任務是找出哪個用戶和他最為相似。我們用距離來表示。

曼哈頓距離

最簡單的距離計算方式是曼哈頓距離。在二維模型中,每個人都可以用(x, y)的點來表示,這里我用下標來表示不同的人,(x1, y1)表示艾米,(x2, y2)表示那位神秘的X先生,那么他們之間的曼哈頓距離就是:

chapter-2-5.png

也就是x之差的絕對值加上y之差的絕對值,這樣他們的距離就是4。


chapter-2-6.png

完整的計算結果如下:

chapter-2-7.png

艾米的距離最近,在她的瀏覽歷史中可以看到她曾給巴奇加盧比的《發條女孩》打過五星,于是我們就可以把這本書推薦給X先生。

歐幾里得距離

曼哈頓距離的優點之一是計算速度快,對于Facebook這樣需要計算百萬用戶之間的相似度時就非常有利。

勾股定理

也許你還隱約記得勾股定理。另一種計算距離的方式就是看兩點之間的直線距離:

chapter-2-8.png

利用勾股定理,我們可以如下計算距離:

chapter-2-9.png

這條斜線就是歐幾里得距離,公式是:

chapter-2-10.png

回顧一下,這里的x1表示用戶1喜歡《龍紋身》的程度,x2是用戶2喜歡這本書的程度;y1則是用戶1喜歡《雪崩》的程度,y2是用戶2喜歡這本書的程度。

艾米給《龍紋身》和《雪崩》都打了五顆星,神秘的X先生分別打了兩星和四星,這樣他們之間的歐幾里得距離就是:

chapter-2-11.png

以下是全部用戶的計算結果:

chapter-2-12.png

N維模型

剛才我們僅僅對兩本書進行評價(二維模型),下面讓我們擴展一下,嘗試更復雜的模型。假設我們現在要為一個在線音樂網站的用戶推薦樂隊。用戶可以用1至5星來評價一個樂隊,其中包含半星(如2.5星)。下表展示了8位用戶對8支樂隊的評價:

chapter-2-13.png

表中的短橫表示這位用戶沒有給這支樂隊打分。我們在計算兩個用戶的距離時,只采用他們都評價過的樂隊,比如要計算Angelica和Bill的距離,我們只會用到5支樂隊。這兩個用戶的曼哈頓距離為:

chapter-2-14.png

最后距離即是上方數據的加和:(1.5 + 1.5 + 3 + 2 + 1)。

計算歐幾里得距離的方法也是類似的,我們也只取雙方都評價過的樂隊。

chapter-2-15.png

用公式來描述即:

chapter-2-16.png

掌握了嗎? 那就試試計算其他幾個用戶之間的距離吧。

chapter-2-17.png

有個瑕疵

當我們計算Hailey和Veronica的距離時會發現一個問題:他們共同評價的樂隊只有兩支(Norah Jones和The Strokes),而Hailey和Jordyn共同評價了五支樂隊,這似乎會影響我們的計算結果,因為Hailey和Veronica之間是二維的,而Haily和Veronica之間是五維的。曼哈頓距離和歐幾里得距離在數據完整的情況下效果最好。如何處理缺失數據,這在研究領域仍是一個活躍的話題。本書的后續內容會進行一些討論,這里先不展開?,F在,讓我們開始構建一個推薦系統吧。

推廣:閔可夫斯基距離

我們可以將曼哈頓距離和歐幾里得距離歸納成一個公式,這個公式稱為閔可夫斯基距離:

chapter-2-18.png

其中:

  • r = 1 該公式即曼哈頓距離
  • r = 2 該公式即歐幾里得距離
  • r = ∞ 極大距離
chapter-2-19.png

當你在書中看到這些數學公式,你可以選擇快速略過它,繼續讀下面的文字,過去我就是這樣;你也可以停下來,好好分析一下這些公式,會發現其實它們并不難理解。比如上面的公式,當r = 1時,可以簡化成如下形式:

chapter-2-20.png

仍用上文的音樂站點為例,x和y分別表示兩個用戶,d(x, y)表示他們之間的距離,n表示他們共同評價過的樂隊數量,我們之前已經做過計算:

其中Difference一欄表示兩者評分之差的絕對值,加起來等于9,也就是他們之間的距離。

當r = 2時,我們得到歐幾里得距離的計算公式:

提前預告一下:r值越大,單個維度的差值大小會對整體距離有更大的影響。

使用Python代碼來表示數據(終于要開始編程了)

在Python中,我們可以用多種方式來描述上表中的數據,這里我選擇Python的字典類型(或者稱為關聯數組、哈希表)。

注:本書的所有代碼可以在這里找到。

users = {"Angelica": {"Blues Traveler": 3.5, "Broken Bells": 2.0, "Norah Jones": 4.5, "Phoenix": 5.0, "Slightly Stoopid": 1.5, "The Strokes": 2.5, "Vampire Weekend": 2.0},
         "Bill":{"Blues Traveler": 2.0, "Broken Bells": 3.5, "Deadmau5": 4.0, "Phoenix": 2.0, "Slightly Stoopid": 3.5, "Vampire Weekend": 3.0},
         "Chan": {"Blues Traveler": 5.0, "Broken Bells": 1.0, "Deadmau5": 1.0, "Norah Jones": 3.0, "Phoenix": 5, "Slightly Stoopid": 1.0},
         "Dan": {"Blues Traveler": 3.0, "Broken Bells": 4.0, "Deadmau5": 4.5, "Phoenix": 3.0, "Slightly Stoopid": 4.5, "The Strokes": 4.0, "Vampire Weekend": 2.0},
         "Hailey": {"Broken Bells": 4.0, "Deadmau5": 1.0, "Norah Jones": 4.0, "The Strokes": 4.0, "Vampire Weekend": 1.0},
         "Jordyn":  {"Broken Bells": 4.5, "Deadmau5": 4.0, "Norah Jones": 5.0, "Phoenix": 5.0, "Slightly Stoopid": 4.5, "The Strokes": 4.0, "Vampire Weekend": 4.0},
         "Sam": {"Blues Traveler": 5.0, "Broken Bells": 2.0, "Norah Jones": 3.0, "Phoenix": 5.0, "Slightly Stoopid": 4.0, "The Strokes": 5.0},
         "Veronica": {"Blues Traveler": 3.0, "Norah Jones": 5.0, "Phoenix": 4.0, "Slightly Stoopid": 2.5, "The Strokes": 3.0}
        }

我們可以用以下方式來獲取某個用戶的評分:

>>> user["Veronica"]
{"Blues Traveler": 3.0, "Norah Jones": 5.0, "Phoenix": 4.0, "Slightly Stoopid": 2.5, "The Strokes": 3.0}
>>>

計算曼哈頓距離

def manhattan(rating1, rating2):
    """計算曼哈頓距離。rating1和rating2參數中存儲的數據格式均為
    {'The Strokes': 3.0, 'Slightly Stoopid': 2.5}"""
    distance = 0
    for key in rating1:
        if key in rating2:
            distance += abs(rating1[key] - rating2[key])
    return distance

我們可以做一下測試:

>>> manhattan(users['Hailey'], users['Veronica'])
2.0
>>> manhattan(users['Hailey'], users['Jordyn'])
7.5
>>>

下面我們編寫一個函數來找出距離最近的用戶(其實該函數會返回一個用戶列表,按距離排序):

def computeNearestNeighbor(username, users):
    """計算所有用戶至username用戶的距離,倒序排列并返回結果列表"""
    distances = []
    for user in users:
        if user != username:
            distance = manhattan(users[user], users[username])
            distances.append((distance, user))
    # 按距離排序——距離近的排在前面
    distances.sort()
    return distances

簡單測試一下:

>>> computeNearestNeighbor("Hailey", users)
[(2.0, 'Veronica'), (4.0, 'Chan'), (4.0, 'Sam'), (4.5, 'Dan'), (5.0, 'Angelica'), (5.5, 'Bill'), (7.5, 'Jordyn')]

最后,我們結合以上內容來進行推薦。假設我想為Hailey做推薦,這里我找到了離他距離最近的用戶Veronica。然后,我會找到出Veronica評價過但Hailey沒有評價的樂隊,并假設Hailey對這些陌生樂隊的評價會和Veronica相近。比如,Hailey沒有評價過Phoenix樂隊,而Veronica對這個樂隊打出了4分,所以我們認為Hailey也會喜歡這支樂隊。下面的函數就實現了這一邏輯:

def recommend(username, users):
    """返回推薦結果列表"""
    # 找到距離最近的用戶
    nearest = computeNearestNeighbor(username, users)[0][1]
    recommendations = []
    # 找出這位用戶評價過、但自己未曾評價的樂隊
    neighborRatings = users[nearest]
    userRatings = users[username]
    for artist in neighborRatings:
        if not artist in userRatings:
            recommendations.append((artist, neighborRatings[artist]))
    # 按照評分進行排序
    return sorted(recommendations, key=lambda artistTuple: artistTuple[1], reverse = True)

下面我們就可以用它來為Hailey做推薦了:

>>> recommend('Hailey', users)
[('Phoenix', 4.0), ('Blues Traveler', 3.0), ('Slightly Stoopid', 2.5)]

運行結果和我們的預期相符。我們看可以看到,和Hailey距離最近的用戶是Veronica,Veronica對Phoenix樂隊打了4分。我們再試試其他人:

>>> recommend('Chan', users)
[('The Strokes', 4.0), ('Vampire Weekend', 1.0)]
>>> recommend('Sam', users)
[('Deadmau5', 1.0)]

我們可以猜想Chan會喜歡The Strokes樂隊,而Sam不會太欣賞Deadmau5。

>>> recommend('Angelica', users)
[]

對于Angelica,我們得到了空的返回值,也就是說我們無法對其進行推薦。讓我們看看是哪里有問題:

>>> computeNearestNeighbor('Angelica', users)
[(3.5, 'Veronica'), (4.5, 'Chan'), (5.0, 'Hailey'), (8.0, 'Sam'), (9.0, 'Bill'), (9.0, 'Dan'), (9.5, 'Jordyn')]

Angelica最相似的用戶是Veronica,讓我們回頭看看數據:

我們可以看到,Veronica評價過的樂隊,Angelica也都評價過了,所以我們沒有推薦。

之后,我們會討論如何解決這一問題。

作業:實現一個計算閔可夫斯基距離的函數,并在計算用戶距離時使用它。

def minkowski(rating1, rating2, r):
    distance = 0
    for key in rating1:
        if key in rating2:
            distance += pow(abs(rating1[key] - rating2[key]), r)
    return pow(distance, 1.0 / r)

# 修改computeNearestNeighbor函數中的一行
distance = minkowski(users[user], users[username], 2)
# 這里2表示使用歐幾里得距離

用戶的問題

讓我們仔細看看用戶對樂隊的評分,可以發現每個用戶的打分標準非常不同:

  • Bill沒有打出極端的分數,都在2至4分之間;
  • Jordyn似乎喜歡所有的樂隊,打分都在4至5之間;
  • Hailey是一個有趣的人,他的分數不是1就是4。

那么,如何比較這些用戶呢?比如Hailey的4分相當于Jordan的4分還是5分呢?我覺得更接近5分。這樣一來就會影響到推薦系統的準確性了。

  • 左:我非常喜歡Broken Bells樂隊,所以我給他們打4分!
  • 右:Broken Bells樂隊還可以,我打4分。

皮爾遜相關系數

解決方法之一是使用皮爾遜相關系數。簡單起見,我們先看下面的數據(和之前的數據不同):

這種現象在數據挖掘領域稱為“分數膨脹”。Clara最低給了4分——她所有的打分都在4至5分之間。我們將它繪制成圖表:

一條直線——完全吻合?。。?/strong>

直線即表示Clara和Robert的偏好完全一致。他們都認為Phoenix是最好的樂隊,然后是Blues Traveler、Norah Jones。如果Clara和Robert的意見不一致,那么落在直線上的點就越少。

意見基本一致的情形

意見不太一致的情形

所以從圖表上理解,意見相一致表現為一條直線。皮爾遜相關系數用于衡量兩個變量之間的相關性(這里的兩個變量指的是Clara和Robert),它的值在-1至1之間,1表示完全吻合,-1表示完全相悖。從直觀上理解,最開始的那條直線皮爾遜相關系數為1,第二張是0.91,第三張是0.81。因此我們利用這一點來找到相似的用戶。

皮爾遜相關系數的計算公式是:

這里我說說自己的經歷。我大學讀的是現代音樂藝術,課程包括芭蕾、現代舞、服裝設計等,沒有任何數學課程。我高中讀的是男子學校,學習了管道工程和汽車維修,只懂得很基礎的數學知識。不知是因為我的學科背景,還是習慣于用直覺來思考,當我遇到這樣的數學公式時會習慣性地跳過,繼續讀下面的文字。如果你和我一樣,我強烈建議你與這種惰性抗爭,試著去理解這些公式。它們雖然看起來很復雜,但還是能夠被常人所理解的。

上面的公式除了看起來比較復雜,另一個問題是要獲得計算結果必須對數據做多次遍歷。好在我們有另外一個公式,能夠計算皮爾遜相關系數的近似值:

這個公式雖然看起來更加復雜,而且其計算結果會不太穩定,有一定誤差存在,但它最大的優點是,用代碼實現的時候可以只遍歷一次數據,我們會在下文看到。首先,我們將這個公式做一個分解,計算下面這個表達式的值:

對于Clara和Robert,我們可以得到:

很簡單把?下面我們計算這個公式:

Clara的總評分是22.5, Robert是15,他們評價了5支樂隊,因此:

所以,那個巨型公式的分子就是70 - 67.5 = 2.5。

下面我們來看分母:

首先:

我們已經計算過Clara的總評分是22.5,它的平方是506.25,除以樂隊的數量5,得到101.25。綜合得到:

對于Robert,我們用同樣的方法計算:

最后得到:

因此,1表示Clara和Robert的偏好完全吻合。

先休息一下吧

計算皮爾遜相關系數的代碼

from math import sqrt

def pearson(rating1, rating2):
    sum_xy = 0
    sum_x = 0
    sum_y = 0
    sum_x2 = 0
    sum_y2 = 0
    n = 0
    for key in rating1:
        if key in rating2:
            n += 1
            x = rating1[key]
            y = rating2[key]
            sum_xy += x * y
            sum_x += x
            sum_y += y
            sum_x2 += pow(x, 2)
            sum_y2 += pow(y, 2)
    # 計算分母
    denominator = sqrt(sum_x2 - pow(sum_x, 2) / n) * sqrt(sum_y2 - pow(sum_y, 2) / n)
    if denominator == 0:
        return 0
    else:
        return (sum_xy - (sum_x * sum_y) / n) / denominator

測試一下:

>>> pearson(users['Angelica'], users['Bill'])
-0.9040534990682699
>>> pearson(users['Angelica'], users['Hailey'])
0.42008402520840293
>>> pearson(users['Angelica'], users['Jordyn'])
0.7639748605475432

最后一個公式:余弦相似度

這里我將奉上最后一個公式:余弦相似度。它在文本挖掘中應用得較多,在協同過濾中也會使用到。為了演示如何使用該公式,我們換一個示例。這里記錄了每個用戶播放歌曲的次數,我們用這些數據進行推薦:

簡單掃一眼上面的數據(或者用之前講過的距離計算公式),我們可以發現Ann的偏好和Sally更為相似。

問題在哪兒?

我在iTunes上有大約4000首歌曲,下面是我最常聽的音樂:

可以看到,Moonlight Sonata這首歌我播放了25次,但很有可能你一次都沒有聽過。事實上,上面列出的這些歌曲可能你一首都沒聽過。此外,iTunes上有1500萬首音樂,而我只聽過4000首。所以說單個用戶的數據是 稀疏 的,因為非零值較總體要少得多。當我們用1500萬首歌曲來比較兩個用戶時,很有可能他們之間沒有任何交集,這樣一來就無從計算他們之間的距離了。

類似的情況是在計算兩篇文章的相似度時。比如說我們想找一本和《The Space Pioneers》相類似的書,方法之一是利用單詞出現的頻率,即統計每個單詞在書中出現的次數占全書單詞的比例,如“the”出現頻率為6.13%,“Tom” 0.89%,“space” 0.25%。我們可以用這些數據來尋找一本相近的書。但是,這里同樣有數據的稀疏性問題?!禩he Space Pioneers》中有6629個不同的單詞,但英語語言中有超過100萬個單詞,這樣一來非零值就很稀少了,也就不能計算兩本書之間的距離。

余弦相似度的計算中會略過這些非零值。它的計算公式是:

其中,“·”號表示數量積?!皘|x||”表示向量x的模,計算公式是:

我們用上文中“偏好完全一致”的示例:

所以兩個向量為:

它們的模是:

數量積的計算:

因此余弦相似度是:

余弦相似度的范圍從1到-1,1表示完全匹配,-1表示完全相悖。所以0.935表示匹配度很高。

作業:嘗試計算Angelica和Veronica的余弦相似度

應該使用哪種相似度?

我們整本書都會探索這個問題,以下是一些提示:

  • 如果數據存在“分數膨脹”問題,就使用皮爾遜相關系數。
  • 如果數據比較“密集”,變量之間基本都存在公有值,且這些距離數據是非常重要的,那就使用歐幾里得或曼哈頓距離。
  • 如果數據是稀疏的,則使用余弦相似度。

所以,如果數據是密集的,曼哈頓距離和歐幾里得距離都是適用的。那么稀疏的數據可以使用嗎?我們來看一個也和音樂有關的示例:假設有三個人,每人都給100首音樂評過分。

  • Jake(左):鄉村音樂的忠實聽眾。
  • Linda和Eric(右):我們愛六十年代的搖滾樂!

Linda和Eric喜歡相同的音樂,他們的評分列表中有20首相同的的歌曲,且評分均值相差不到0.5!所以他們之間的曼哈頓距離為20 x 0.5 = 10,歐幾里得距離則為:

Linda和Jake只共同評分了一首歌曲:Chris Cagle的 What a Beautiful Day 。Linda打了3分,Jake打了5分,所以他們之間的曼哈頓距離為2,歐幾里得距離為:

所以不管是曼哈頓距離還是歐幾里得距離,Jake都要比Eric離Linda近,這不符合實際情況。

嘿,我想到一個辦法。人們給音樂打分是從1到5分,那些沒有打分的音樂就統一給0分好了,這樣就能解決數據稀疏的問題了!

想法不錯,但是這樣做也不行。為了解釋這一問題,我們再引入兩個人到例子里來:Cooper和Kelsey。他們和Jake都有著非常相似的音樂偏好,其中Jake在我們網站上評價了25首歌曲。

Cooper評價了26首歌曲,其中25首和Jake是一樣的。他們對每首歌曲的評價差值只有0.25!

Kelsey在我們網站上評價了150首歌曲,其中25首和Jake相同。和Cooper一樣,她和Jake之間的評價差值也只有0.25!

所以我們從直覺上看Cooper和Keylsey離Jake的距離應該相似。但是,當我們計算他們之間的曼哈頓距離和歐幾里得距離時(代入0值),會發現Cooper要比Keylsey離Jake近得多。

為什么呢?

我們來看下面的數據:

從4、5、6這三首歌來看,兩人離Jake的距離是相同的,但計算出的曼哈頓距離卻不這么顯示:

問題就在于數據中的0值對結果的影響很大,所以用0代替空值的方法并不比原來的方程好。還有一種變通的方式是計算“平均值”——將兩人共同評價過的歌曲分數除以歌曲數量。

總之,曼哈頓距離和歐幾里得距離在數據完整的情況下會運作得非常好,如果數據比較稀疏,則要考慮使用余弦距離。

古怪的現象

假設我們要為Amy推薦樂隊,她喜歡Phoenix、Passion Pit、以及Vampire Weekend。和她最相似的用戶是Bob,他也喜歡這三支樂隊。他的父親為Walter Ostanek樂隊演奏手風琴,所以受此影響,他給了這支樂隊5星評價。按照我們現在的推薦邏輯,我們會將這支樂隊推薦給Amy,但有可能她并不喜歡。

或者試想一下,Billy Bob Olivera教授喜歡閱讀數據挖掘方面的書籍以及科幻小說,他最鄰近的用戶是我,因為我也喜歡這兩種書。然而,我又是一個貴賓犬的愛好者,所以給《貴賓犬的隱秘生活》這本書打了很高的分。這樣一來,現有的推薦方法會將這本書介紹給Olivera教授。

問題就在于我們只依靠最相似的 一個 用戶來做推薦,如果這個用戶有些特殊的偏好,就會直接反映在推薦內容里。解決方法之一是找尋多個相似的用戶,這里就要用到K最鄰近算法了。

K最鄰近算法

在協同過濾中可以使用K最鄰近算法來找出K個最相似的用戶,以此作為推薦的基礎。不同的應用有不同的K值,需要做一些實驗來得出。以下給到讀者一個基本的思路。

假設我要為Ann做推薦,并令K=3。使用皮爾遜相關系數得到的結果是:

這三個人都會對推薦結果有所貢獻,問題在于我們如何確定他們的比重呢?我們直接用相關系數的比重來描述,Sally的比重是0.8/2=40%,Eric是0.7/2=35%,Amanda則是25%:

假設他們三人對Grey Wardens的評分以及加權后的結果如下:

最后計算得到的分數為:

Python推薦模塊

我將本章學到的內容都匯集成了一個Python類,雖然代碼有些長,我還是貼在了這里:

import codecs 
from math import sqrt

users = {"Angelica": {"Blues Traveler": 3.5, "Broken Bells": 2.0,
                      "Norah Jones": 4.5, "Phoenix": 5.0,
                      "Slightly Stoopid": 1.5,
                      "The Strokes": 2.5, "Vampire Weekend": 2.0},
         
         "Bill":{"Blues Traveler": 2.0, "Broken Bells": 3.5,
                 "Deadmau5": 4.0, "Phoenix": 2.0,
                 "Slightly Stoopid": 3.5, "Vampire Weekend": 3.0},
         
         "Chan": {"Blues Traveler": 5.0, "Broken Bells": 1.0,
                  "Deadmau5": 1.0, "Norah Jones": 3.0, "Phoenix": 5,
                  "Slightly Stoopid": 1.0},
         
         "Dan": {"Blues Traveler": 3.0, "Broken Bells": 4.0,
                 "Deadmau5": 4.5, "Phoenix": 3.0,
                 "Slightly Stoopid": 4.5, "The Strokes": 4.0,
                 "Vampire Weekend": 2.0},
         
         "Hailey": {"Broken Bells": 4.0, "Deadmau5": 1.0,
                    "Norah Jones": 4.0, "The Strokes": 4.0,
                    "Vampire Weekend": 1.0},
         
         "Jordyn":  {"Broken Bells": 4.5, "Deadmau5": 4.0,
                     "Norah Jones": 5.0, "Phoenix": 5.0,
                     "Slightly Stoopid": 4.5, "The Strokes": 4.0,
                     "Vampire Weekend": 4.0},
         
         "Sam": {"Blues Traveler": 5.0, "Broken Bells": 2.0,
                 "Norah Jones": 3.0, "Phoenix": 5.0,
                 "Slightly Stoopid": 4.0, "The Strokes": 5.0},
         
         "Veronica": {"Blues Traveler": 3.0, "Norah Jones": 5.0,
                      "Phoenix": 4.0, "Slightly Stoopid": 2.5,
                      "The Strokes": 3.0}
        }


class recommender:

    def __init__(self, data, k=1, metric='pearson', n=5):
        """ 初始化推薦模塊
        data   訓練數據
        k      K鄰近算法中的值
        metric 使用何種距離計算方式
        n      推薦結果的數量
        """
        self.k = k
        self.n = n
        self.username2id = {}
        self.userid2name = {}
        self.productid2name = {}
        # 將距離計算方式保存下來
        self.metric = metric
        if self.metric == 'pearson':
            self.fn = self.pearson
        #
        # 如果data是一個字典類型,則保存下來,否則忽略
        #
        if type(data).__name__ == 'dict':
            self.data = data

    def convertProductID2name(self, id):
        """通過產品ID獲取名稱"""
        if id in self.productid2name:
            return self.productid2name[id]
        else:
            return id

    def userRatings(self, id, n):
        """返回該用戶評分最高的物品"""
        print ("Ratings for " + self.userid2name[id])
        ratings = self.data[id]
        print(len(ratings))
        ratings = list(ratings.items())
        ratings = [(self.convertProductID2name(k), v)
                   for (k, v) in ratings]
        # 排序并返回結果
        ratings.sort(key=lambda artistTuple: artistTuple[1],
                     reverse = True)
        ratings = ratings[:n]
        for rating in ratings:
            print("%s\t%i" % (rating[0], rating[1]))

    def loadBookDB(self, path=''):
        """加載BX數據集,path是數據文件位置"""
        self.data = {}
        i = 0
        #
        # 將書籍評分數據放入self.data
        #
        f = codecs.open(path + "BX-Book-Ratings.csv", 'r', 'utf8')
        for line in f:
            i += 1
            #separate line into fields
            fields = line.split(';')
            user = fields[0].strip('"')
            book = fields[1].strip('"')
            rating = int(fields[2].strip().strip('"'))
            if user in self.data:
                currentRatings = self.data[user]
            else:
                currentRatings = {}
            currentRatings[book] = rating
            self.data[user] = currentRatings
        f.close()
        #
        # 將書籍信息存入self.productid2name
        # 包括isbn號、書名、作者等
        #
        f = codecs.open(path + "BX-Books.csv", 'r', 'utf8')
        for line in f:
            i += 1
            #separate line into fields
            fields = line.split(';')
            isbn = fields[0].strip('"')
            title = fields[1].strip('"')
            author = fields[2].strip().strip('"')
            title = title + ' by ' + author
            self.productid2name[isbn] = title
        f.close()
        #
        #  將用戶信息存入self.userid2name和self.username2id
        #
        f = codecs.open(path + "BX-Users.csv", 'r', 'utf8')
        for line in f:
            i += 1
            #print(line)
            #separate line into fields
            fields = line.split(';')
            userid = fields[0].strip('"')
            location = fields[1].strip('"')
            if len(fields) > 3:
                age = fields[2].strip().strip('"')
            else:
                age = 'NULL'
            if age != 'NULL':
                value = location + '  (age: ' + age + ')'
            else:
                value = location
            self.userid2name[userid] = value
            self.username2id[location] = userid
        f.close()
        print(i)

    def pearson(self, rating1, rating2):
        sum_xy = 0
        sum_x = 0
        sum_y = 0
        sum_x2 = 0
        sum_y2 = 0
        n = 0
        for key in rating1:
            if key in rating2:
                n += 1
                x = rating1[key]
                y = rating2[key]
                sum_xy += x * y
                sum_x += x
                sum_y += y
                sum_x2 += pow(x, 2)
                sum_y2 += pow(y, 2)
        if n == 0:
            return 0
        # 計算分母
        denominator = (sqrt(sum_x2 - pow(sum_x, 2) / n)
                       * sqrt(sum_y2 - pow(sum_y, 2) / n))
        if denominator == 0:
            return 0
        else:
            return (sum_xy - (sum_x * sum_y) / n) / denominator

    def computeNearestNeighbor(self, username):
        """獲取鄰近用戶"""
        distances = []
        for instance in self.data:
            if instance != username:
                distance = self.fn(self.data[username],
                                   self.data[instance])
                distances.append((instance, distance))
        # 按距離排序,距離近的排在前面
        distances.sort(key=lambda artistTuple: artistTuple[1],
                       reverse=True)
        return distances

    def recommend(self, user):
       """返回推薦列表"""
       recommendations = {}
       # 首先,獲取鄰近用戶
       nearest = self.computeNearestNeighbor(user)
       #
       # 獲取用戶評價過的商品
       #
       userRatings = self.data[user]
       #
       # 計算總距離
       totalDistance = 0.0
       for i in range(self.k):
          totalDistance += nearest[i][1]
       # 匯總K鄰近用戶的評分
       for i in range(self.k):
          # 計算餅圖的每個分片
          weight = nearest[i][1] / totalDistance
          # 獲取用戶名稱
          name = nearest[i][0]
          # 獲取用戶評分
          neighborRatings = self.data[name]
          # 獲得沒有評價過的商品
          for artist in neighborRatings:
             if not artist in userRatings:
                if artist not in recommendations:
                   recommendations[artist] = (neighborRatings[artist]
                                              * weight)
                else:
                   recommendations[artist] = (recommendations[artist]
                                              + neighborRatings[artist]
                                              * weight)
       # 開始推薦
       recommendations = list(recommendations.items())
       recommendations = [(self.convertProductID2name(k), v)
                          for (k, v) in recommendations]
       # 排序并返回
       recommendations.sort(key=lambda artistTuple: artistTuple[1],
                            reverse = True)
       # 返回前n個結果
       return recommendations[:self.n]

運行示例

首先構建一個推薦類,然后獲取推薦結果:

>>> r = recommender(users)
>>> r.recommend('Jordyn')
[('Blues Traveler', 5.0)]
>>> r.recommend('Hailey')
[('Phoenix', 5.0), ('Slightly Stoopid', 4.5)]

新的數據集

現在讓我們使用一個更為真實的數據集。Cai-Nicolas Zeigler從圖書漂流站收集了超過100萬條評價數據——278,858位用戶為271,379本書打了分。這份數據(匿名)可以從這個地址獲得,有SQL和CSV兩種格式。由于特殊符號的關系,這些數據無法直接加載到Python里。我做了一些清洗,可以從這里下載。

CSV文件包含了三張表:

  • 用戶表,包括用戶ID、位置、年齡等信息。其中用戶的姓名已經隱去;
  • 書籍表,包括ISBN號、標題、作者、出版日期、出版社等;
  • 評分表,包括用戶ID、書籍ISBN號、以及評分(0-10分)。

上文Python代碼中的loadBookDB方法可以加載這些數據,用法如下:

>>> r.loadBookDB('/Users/raz/Downloads/BX-Dump/')
1700018
>>> r.recommend('171118')

注意 由于數據集比較大,大約需要幾十秒的時間加載和查詢。

項目實踐

只有運行調試過書中的代碼后才能真正掌握這些方法,以下是一些實踐建議:

  1. 實現一個計算曼哈頓距離和歐幾里得距離的方法;
  2. 本書的網站上有一個包含25部電影評價的數據集,實現一個推薦算法。
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,517評論 6 539
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,087評論 3 423
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 177,521評論 0 382
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,493評論 1 316
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,207評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,603評論 1 325
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,624評論 3 444
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,813評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,364評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,110評論 3 356
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,305評論 1 371
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,874評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,532評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,953評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,209評論 1 291
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,033評論 3 396
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,268評論 2 375

推薦閱讀更多精彩內容