大數據是最近最火的幾個名詞之一,而大數據的應用里大眾接受程度最廣的一項就是個性化推薦。打開網易云音樂評論區,多少人覺得終于找到了那個最懂你的“它”,淘寶和亞馬遜總能推送一些我想買的東西,咦,微博怎么知道我想關注這個大V?仿佛現在的推薦越來越準了,越來越“個性”了。
其實仔細想想,這些推薦算法并不是在找“個性”,而是在找“相似”。你之所以收到那些推薦,是因為有千千萬萬個和你相似的人曾經做出類似的選擇,喜歡過同樣的東西。你覺得推薦越準,其實說明你和某類群體越相似,反而是“不個性”的體現。
不過我并不想抨擊個不個性這件事情,因為人本身就是在追求相似與不同的螺旋中前進的,但大數據給我們帶來了另一個隱患,那就是stereotype,即一種對某一類人群的刻板印象,這種東西很可怕。
美國的汽車保險金額計算方法是不透明的,保險公司各自都有自己的計算方法,選取一些客戶的feature根據某些模型來計算保費。人們會發現男性的保費比女性要高,原因就是“數據分析”顯示,男性事故概率比女性高。這乍一看好像沒什么,但是細細想想就會很不舒服,為什么我要被其他男性“代表”?為什么我的個體差異性就要這樣被抹殺?以前我們批判某些刻板印象的言論總會說:“你怎么知道這些特征是普遍存在的,你做過數據調查么?”。好了,現在我們真的有了數據支撐這些觀點,然后呢?就可以光明正大的給所有人按照模型貼上標簽了么?我們就可以根據大數據的結果多征收黑人“治安管理費”,或是在企業招聘的時候直接過濾某些大學畢業的學生?
大數據實際上是人類利用現代科技繼續向“效率”端狂奔的手段,這些數據對企業、政府甚至個人來說很誘人,因為可以極大的提高它們的效率,但是另一方面,對個體特征的忽略也極大地抑制了公平。我希望我們發展大數據的同時,也能時常思考一下這些問題。
我本人也從事著大數據相關的工作,我也會希望我的模型很準,但是我更希望,我們每個人,終究不會被數據所刻畫。“無法預測”,將是人類頭頂閃耀著的最美的光。所以,比起“你真懂我”,我更愿意聽見的是
“你懂個蛋”