Nosofsky, R. M. (2011). The generalized context model: An exemplar model of classification. Formal approaches in categorization, 18-39.
1、概念概述
(總結起來是四個假設:基于范例的代表性假設,其基于MDS的相似性假設,選擇性注意假設,記憶強度假設)
根據廣義上下文模型(GCM),人們通過存儲一些范例來表征某類物體,如果一個新對象與這些范例足夠相似,那就會被歸為這一類。
一般采用多維尺度(MDS)分析來模擬樣本之間的相似性關系。范例被定位在多維心理空間的一點上,范例之間距離越遠,相似性越低。應用中,建模的第一步是進行相似性研究,獲得樣本的MDS,確定樣本在多維空間中的位置。一個關鍵假設是,相似性不是一直不變的,它高度依賴情境。比如,強調結構時,人和人體模型的相似度極高,但強調生命力時,就不高了。為滿足這一假設,設置了一組選擇性注意力權重,用來修改多維空間的結構,在高度關注的相關維度“拉伸”心理空間,在不相關維度“收縮”空間。
最后一個假設是,每一范例可能以不同的記憶強度存儲在記憶中。分類測試項時,范例的記憶強度越高、與測試項的相似度越高,對分類決策的影響越大。
圖1是對上述概念的具體應用。已知兩個類別A、B,每類中有5個范例,每一范例有兩個維度,被試的任務是將i歸為其中一類。被試會分別計算i與類別A/B的范例的相似性總和(以范例的記憶強度為權重),確定歸屬類別。在上方圖中,兩個類別的相似性基本相等,所以概率相等。下方圖中,設置條件為水平維度更相關,采用上述的選擇性注意策略,“拉伸”水平維度,“收縮”垂直維度,分類預測結果受到影響,測試項與A的范例的相似度更高,被試有更高的概率選擇類別A。
2、計算公式(下標都沒了…)
①公式1:有KN個類別,需將項目i分到其中一類中去,計算分到類別f的概率
其中,j指類別f中已有的范例。sij指i與j之間的相似度。Vjf指j相對于類別f的記憶強度,由實驗設計的性質決定,一般學過的刺激設為1,未學的設為0。γ是響應尺度參數,是個自由參數,作用是影響決策時的確定程度,如果γ=1,那么概率P與相似度總和呈線性關系,如果γ>1,那么更有可能選擇相似度總和最大的類別。bf指類別f的響應偏差。
用i與f的相似度總和除以i與所有類別的相似度總和,即可知i歸屬于類別f的概率。
②公式2:計算公式1中的sij,需要先算dij
xjm表示樣本j在第m維度上的值;參數r反應度量距離的形式,在刺激各維度可分離時,設置為1,刺激的各維度不可分離(也就是高度混淆)時,設置為2;wm是注意權重參數(0≤wm≤1,∑wm = 1),也是個自由參數,反映了對各維度的注意程度,幾何解釋就是前文提到的拉伸和收縮心理空間。
③公式3:計算sij
c是靈敏度參數,也是自由參數,反映了相似度隨距離減小的速率。p決定函數的形狀。在大多數情況下,p設置為1;刺激的各維度不可分離時,p設置為2。
④在這三個公式中,只有三個自由參數:響應偏差參數b和響應尺度參數γ,注意權重參數wm,靈敏度參數c。其余參數均由實驗設計的性質確定,或由獨立的來源衍生。
3、實驗應用:實驗結果支持了選擇性注意假設
刺激物是嵌有徑向線的半圓形,半圓的大小和徑向線的角度各有四個水平,共16個。
設有四種不同的分類方式(圖2),對于每一方式,被試先學習其中8個刺激,訓練形成兩種類別的概念,然后測試16個刺激,記錄分類正確率,將結果與模型預測的結果比較。圖中,列對應不同的角度,行對應不同的大小。有數字1的空格代表這是第1類的訓練刺激,有數字2的空格代表這是第2類的訓練刺激,沒有數字的空格代表這是用來轉移測試的刺激。訓練階段,提供訓練刺激以及糾正性反饋。測試階段,提供訓練刺激和測試刺激,訓練刺激仍有糾正性反饋,轉移刺激無反饋。
四種分類各有特點:尺寸和角度分類是單維分類,一個維度比另一個維度更具相關性;交叉分類不可線性劃分,即,對比類別的成員不能通過在空間中畫一條直線來分隔;對角線分類是相當“自然”的二維類別結構,可通過對角線來分離。
建立了刺激的二維空間,將它與GCM結合,用模型的兩種版本預測了四種分類下的結果——完整版本(w2 = 1?w1,b2 = 1?b1)和特殊版本(w1 = w2 = 0.5或b1 = b2 = 0.5),下圖3的三種模型分別對應完整版本、特殊1、特殊2,比較實際結果與完整版本/特殊版本的預測結果,可以獲得支持自由參數重要性的證據。
關注%Var一欄,可以看到,完整版本的結果預測極為準確。但是注意權重相等的特殊版本(w1 = w2 = 0.5)的預測明顯差于完整版本的預測,這為選擇性注意假設提供了證據。
4、GCM的擴展應用
原型模型與范例模型的一個中間的觀點是,可以形成多個原型來代表一個類別,其中可以將不同數量的范例平均起來形成每個單獨的原型。在Vanpaemel和Storms(2008)的可變抽象模型(VAM)中,考慮了所有可能的多原型表示,并將最適合的版本作為底層類別表示,結果表明,增加復雜性是合理的。
GCM的一個重要擴展是Stewart和Brown的相似-不同范例模型。該模型假定,支持某一類別的證據并不僅僅基于某一測試項目與該類別樣本的相似性,而是基于該測試項目與對比類別樣本的差異性。該模型成功地利用了分類中的差異信息和分類對比效應。
另一個擴展是Kruschke的ALCOVE(注意力學習覆蓋圖)模型。本質上,ALCOVE采用了GCM的基于范例的代表性假設,其基于MDS的相似性假設,以及其關于選擇性注意的假設。一個關鍵的潛在優勢是,盡管選擇性注意力權重是GCM中的自由參數,ALCOVE提供了一種機制,可以在逐個試驗的基礎上學習注意力權重。
Nosofsky和Palmeri的基于范例的隨機漫步(EBRW)模型采用了與GCM相同的表征假設。然而,分類決策是由隨機漫步過程控制的。另一個主要擴展是Lamberts的響應時間擴展廣義上下文模型(EGCM-RT)。該擴展還采用了GCM的基于范例的代表性和相似性假設。然而,它假設分類涉及到通過信息積累過程逐步構建的知覺表征。