司法人員正在使用日益復雜的風險評估工具來幫助提醒取保候審和量刑判決——包括應該入獄多少年的新判決,以及在現有判決服刑一段時間后是否可以假釋。
根據馬歇爾計劃的報告(編者注:馬歇爾計劃是美國一個無黨派、非營利的新聞機構,致力于建立和維持美國刑事司法體系的有序運營),美國各地大約有60種技術水平方面各不相同的風險評估工具。這些風險評估工具通常使用靜態變量包括被定罪者的年齡、工作經歷和先前的犯罪記錄,創造一個衡量再犯風險的分數。據該領域的專家介紹,使用機器學習進行風險評估量化工具目前處于開發和實施的早期階段。
專家同時指出,機器學習對改善判決結果有很多潛在的好處。例如,一項政策模擬表明,如果根據(取保候審和量刑風險評估)工具的輸出做出判決,監獄人數可減少42%,犯罪率不會增加,包括暴力犯罪。
在刑事司法中使用AI的挑戰
專家們指出,在支持刑事司法領域的警情預測、人臉識別和風險評估方面,人工智能的進一步演變和采用有四個主要挑戰:資源限制、公平和人群偏見、機器學習的透明度和準確性、隱私和公民權利有關事項。
1
資源限制
人工智能的應用,包括警情預測和人臉識別技術,需要許多執法機構可能不具備的資源。例如,由于警情預測地圖不斷變化,執法人員必須能夠在執勤時經常在巡邏車上實時檢查地圖,以便警情預測軟件的結果實現最佳用途。這就要求執法人員的移動終端具有GPS功能,使其在行動時保持互聯網接入,并且終端上必備的軟件或基線功能都能夠與警情預測軟件連接。一些執法機構沒有符合這些要求的設備,因此無法利用AI技術。
此外,AI系統可能會要求執法人員學習使用新工具,這些都需要培訓和時間。此外,為了創建或維護執法人員將使用的軟件,一些機構將不得不配置專職員工或雇用新員工,他們可能沒有此項經費。而且,為警情預測軟件所配置的解析數據工作人員都需要具備數據分析技能,而某些機構可能沒有經費來支付培訓費用。
2
公平和人群偏見
執法程序中使用的算法可能會通過利用含有偏見信息的數據加劇種族偏見,這引起了外界對公平和人群偏見的擔憂。以這種方式使用數據可能被用來污蔑(特定的)社區或人群。例如,用于開發人臉識別技術算法訓練集的構成可以影響算法最擅長檢查的照片種類。如果訓練集偏向某個種族群體(編者注:如非裔、拉美裔等),與其他種族群體的個體相比,該算法可能會更好地識別該群體的成員。另一個例子是,民權團體擔心警情預測系統沒有得到充分的審查和持續監控,以評估執法人員是否故意針對特定的社區。這些團體認為,警情預測算法可能導致有色人種社區的加重定性定罪,讓政府將執法活動進一步集中在這些社區。
3
機器學習的透明度和準確性
由于制造軟件和構建算法的技術公司缺乏透明度,專家們擔心很難確認機器學習技術的準確性。此外,拋開商業慣例,許多機器學習技術存在固有的局限性。例如,許多早期的AI執法方法都是專有的,并且它們的算法并不對公眾開放。
另外,政府問責辦公室(GAO)及其他一些機構已經對系統準確性的有限測試進行關注。2016年,政府問責辦公室發現聯邦調查局對其人臉識別能力的準確性進行了有限的測試。例如,該機構尚未采取措施確定合作伙伴執法機構的人臉識別技術系統是否足夠準確,并且沒有擴大化地將無辜的人作為調查線索。政府問責辦公室建議聯邦調查局采取措施提高透明度,并更好地確保根據隱私保護法律和政策要求使用人臉識別功能,并確保人臉識別技術系統足夠準確。
4
隱私和公民權利有關事項
刑事司法部門使用人工智能對隱私和公民權利造成影響似乎非常普遍。例如,參加2009年美國司法部國家司法研究所警情預測研討會的研究人員和執法人員強調需要制定隱私政策,以確保(AI)技術使用的合理性。這些與會者主要關注如何確保警情預測技術符合隱私法律和政策。
同樣,喬治敦隱私與技術法律中心2016年的一份報告指出,執法機構沒有采取適當的措施來保護隱私,而且人臉識別技術的執法使用不受管制,也很少因濫用而被審查。這份報告的作者敦促社團領導人推動人臉識別技術政策和立法,以保護隱私、公民自由和公民權利。政府問責辦公室還報告了與聯邦調查局使用人臉識別技術有關的類似問題,包括沒有采取足夠的措施來監督技術的使用和確保它使用的外部數據庫的準確性。
AI在刑事司法執法中的未來
雖然能展示的證據很有限,但人工智能正在加強刑事司法領域應用,該技術的吸引力非常廣泛。隨著其使用和技術能力的擴大,可能會有一些改進包括提高準確性、實時使用AI以及跨不同媒體形式的使用能力以及更有效地使用該技術。特別是隨著更好和更具相關性的數據被收集,人工智能預測的準確性可能會提高。