人工智能之隱憂有哪些?
? ? ? ?隱私安全,數據歧視和生存威脅。
? ? ? ?新生事物,人們憧憬它的光明前景的同時,也會預測其暗黑一面。
? ? ? ?我們提起人工智能之患時,總會下意識認為就是AI主動反人類。但以AI目前曝光水平看,這事還有點玄幻,不知道有生之年能不能看到。
? ? ? ?可如果是人主導AI來干壞事,實現概率就比前者高不少。
? ? ? 人工智能最直接的不安全感,來自于數據或者個人隱私全面暴露。
? ? ? ?我們上網有意無意透露各種信息,搜索引擎會隨時記錄所有搜索關鍵詞, 購物網會記住我們瀏覽過的商品。
? ? ? ?AI匯總整理這些數據,進一步挖掘分析出個性化用戶年齡、收入、住址、偏好間的關聯,形成詳細的用戶信息網絡檔案,極大增加了個人隱私的曝光風險。
? ? ?第二個擔憂來自于數據應用的隱形歧視。
? ? ? ?有了稱手的數據,一些互聯網商家可以“看人下菜碟”。比如航空公司發布機票價格,收入高人群看到的票價更高。經常維權退貨的網購客戶,買到假貨的概率比“買了吃啞巴虧”的顧客低很多。
? ? ? ?司法系統也有類似案例。在哈佛大學數學系博士、華爾街前投資顧問撰寫的新書《“殺傷性武器”大數據》里,提到了所謂“大數據之害”。
? ? ? ?書中列舉了美國司法系統對犯罪檔案大數據的運用,軟件推斷一個犯人是否再犯罪,依據的是犯人住址和犯人親戚的犯罪記錄,而這兩條對黑人不利。因為美國有相當一部分黑人和其親戚,住在犯罪率較高的街區。
? ? ? ?按照軟件的邏輯,住在高犯罪率地區犯人容易再犯,家族有案底的犯人也容易再犯,那這些犯人就要加長刑期。而加長了刑期,犯人出獄后再犯的概率又會提高,如此便陷入一個循環怪圈。
? ? ? ?數據自身是中立的,而模型的主觀性,則會引發社會性的群體歧視或迫害。因此設計數學模型的計算機工程師,保持對各類人的客觀視角非常重要。
? ? ? 最后一條,是超級人工智能出現并被惡意使用。
? ? ? ?說到這,不能不提一下圖靈測試。它是國際公認的,評價一個機器是否具備人工智能的標準方法。
? ? ? ?1950年,阿蘭.圖靈博士在題為《計算的機器和智能》論文中,說到讓一臺機器和一個人坐在幕后,讓一個裁判同時和幕后的人和機器進行交流。如果這個裁判無法判斷自己交流的對象是人還是機器,就說明這臺機器有了和人同等的智能。
? ? ? ?我們不妨這么考慮一下,人工智能擁有無與倫比的深度學習能力,使得它從時間和空間廣度上都有足夠的優勢,去學習、運用及發揚全人類的智慧成果。
? ? ? ?如果有朝一日它成了超級人工智能,會不會被狂熱的科學家或恐怖分子人為操縱,能通過圖靈測試,還具有控制及滅掉每個人的能力。這真是細思極恐的一件事。
? ? ? ?話說回來,新生事物有黑有白亦正常。人是人工智能的發明者、應用者,有義務和責任從法律道德倫理角度,去完善約束機制。
? ? ? ?過程積累需要一段較長的時間,期望伴隨著人工智能成熟度不斷提高,配套的管控方法也會日趨成熟。
寫在最后
? ? ? ?人工智能的未來,好的壞的,均是趨勢使然,我們逃避不了。唯有認識它、正視它,消除自身大腦對這個新事物的不確定性。
? ? ? ?工業時代及之前的機械思維,代表人物包括牛頓、愛因斯坦等大家,采用的都是大膽假設、小心求證的方法,先找規律再想法去驗證。
? ? ? ?一則所耗費的時間可能很長,靈感來源有運氣的成分在里面,傳說牛頓發現萬有引力是因為被蘋果砸到,愛因斯坦在書房受一道陽光啟發而發現相對論;二來若是規律或者模型假設的不對,在錯誤的路上將越走越遠。
? ? ? ? 而基于大數據的統計分析,善于發現表象上顯示不出來的隱含規律,就為問題的精準定位和解決,找到了一條可靠的“捷徑”,也是一種全新的智能思維方式。
? ? ? ?當然,前提是數據足夠多,模型公正客觀。
? ? ? ?因此進化到人工智能時代,我們更需要培養這種智能思維。
? ? ? ?按照吳軍博士的觀點,蒸汽機、電和信息技術主導了前三次產業革命。邁進每個時代的黃金期,只有極少數的人能敏感捕捉趨勢,擁抱了先機。
? ? ? ?由于社會的財富總量在一定時期內是固定的,所以這部分抓住機遇的人,就成為了當時社會的弄潮兒。智能時代亦會如此。
? ? ? ?所以,撇掉那些浮在表層的泡沫、浮夸與跟風。在人工智能即將全面來襲的時候,我們,做好當這2%的準備了嗎?