嵌牛IT觀察(二)——人工智能的安全、倫理和隱私問題

姓名:趙佳慧? ? ? ? ? ? 學號:22011210938? ? ? ? ? ?學院:通信工程學院? ? ? ? ? ?

原文鏈接:https://blog.csdn.net/weixin_45859485/article/details/125658756?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522167265213616800215075045%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=167265213616800215075045&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-2-125658756-null-null.142^v68^control,201^v4^add_ask,213^v2^t3_esquery_v3&utm_term=%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%AE%89%E5%85%A8&spm=1018.2226.3001.4187

一、人工智能的安全問題

1.人工智能網絡安全問題

眾所周知,很多行業在應用入工智能這項技術以及相關的知識的時候都是依附于計算機網絡來進行的,而計算機網絡這個行業是錯綜復雜的,很多計算機網絡的安全問題也是目前我國面臨的很嚴重的問題之一,相應的人工智能的網絡安全問題也是還存在問題的,比如機器人在為人類服務的過程中,操作系統可能遭到黑客的控制,機器人的管理權限被黑客拿到,使機器人任由黑客擺布;亦或突然源代碼遭受到攻擊,人工智能的信息基本通過網絡進行傳輸,在此過程中,信息有可能遇到黑客的篡改和控制,這就會導致機器人產生違背主人命令的行為,會有給主人造成安全問題的可能性。不僅如此,在人工智能的發展過程中,大量的人工智能訓練師需要對現有的人類大數據進行分析和統計,如何防止信息的泄漏和保護個人信息的隱私也是人工智能領域需要關注的問題。

2.人工智能應用范圍限定的問題

對一些發展不成熟、會有引起安全問題的可能性的領域以及技術的應用范圍給出一定的限定,這是保障人類與社會和諧發展的一種手段,也是不能或缺的一個步驟。目前,人工智能的發展也是如此的,這也是人工智能目前安全問題所面臨的問題之一。目前各行各業都有人工智能的應用,比如無人駕駛、各類機器人等,很多行業都會看到人工智能的存在,小到購物APP中的客服機器人,大到國際比賽中機器人的應用,在許多危險的領域,如核電、爆破等危及人類生命安全的場景,發揮了至關重要的作用。這些領域的應用如果應用的成功那沒什么問題,一旦出現問題就會產生很嚴重的安全性問題。對于人工智能應用的范圍,目前并沒有給出明確的界定,也沒有明確的法律依據,這就需要相關組織和機構,盡快對人工智能的適用場景進行梳理,加快人工智能標準和法律的建設步伐,防止一些不法分子,利用法律漏洞將人工智能運用到非法的范圍中,造成全人類不可估量的損失。

3.人工智能本身的安全標準

人工智能的產生以及應用的本身目的并不是為了趕超人類或者達到人類的智力水平,它本身存在的價值是服務于人類,可以成為人類生活的更好的一種工具,人類需要對其有著一定的控制的能力。但是近幾年來,很多人工智能的存在是為了與人類的智力水平以及人類為標準,忽略了部分人類倫理的問題,甚至涉及到部分人權問題,這就偏離了人工智能本身存在的目的,而這種的偏離會產生一定的安全問題,從而影響人工智能的發展。所以人們應對機器人的道德和行為判斷力進行判定,確保其在人類的道德倫理范圍中,避免人工智能產物做出危害人類安全的行為。人類必須對人工智能的行為進行嚴格的監管,也要大力發展人工智能自身的倫理監督機制,使其為人類所用。

二、人工智能的倫理問題

1.人工智能算法的正義問題

依托于深度學習、算法等技術,從個性化推薦到信用評估、雇傭評估、企業管理再到自動駕駛、犯罪評估、治安巡邏,越來越多的決策工作正在被人工智能所取代,越來越多的人類決策主要依托于人工智能的決策。由此產生的一個主要問題是公平正義如何保障?人工智能的正義問題可以解構為兩個方面:第一,如何確保算法決策不會出現歧視、不公正等問題。這主要涉及算法模型和所使用的數據。第二,當個人被牽扯到此類決策中,如何向其提供申訴機制并向算法和人工智能問責,從而實現對個人的救濟,這涉及透明性、可責性等問題。在人工智能的大背景下,算法歧視已經是一個不容忽視的問題,正是由于自動化決策系統日益被廣泛應用在諸如教育、就業、信用、貸款、保險、廣告、醫療、治安、刑事司法程序等諸多領域。從語音助手的種族歧視、性別歧視問題,到美國犯罪評估軟件對黑人的歧視,人工智能系統決策的不公正性問題已經蔓延到了很多領域,而且由于其“黑箱”性質、不透明性等問題,難以對當事人進行有效救濟。

2.人工智能的透明性和可解釋性問題

人工智能系統進入人類社會,必然需要遵守人類社會的法律、道德等規范和價值,做出合法、合道德的行為。或者說,被設計、被研發出來的人工智能系統需要成為道德機器。在實踐層面,人工智能系統做出的行為需要和人類社會的各種規范和價值保持一致,即價值一致性或者說價值相符性。由于人工智能系統是研發人員的主觀設計,這一問題最終歸結到人工智能設計和研發中的倫理問題,即一方面需要以一種有效的技術上可行的方式將各種規范和價值代碼化,植入人工智能系統,使系統在運行時能夠做出合倫理的行為;另一方A面需要避免研發人員在人工智能系統研發過程中,將其主觀的偏見、好惡、歧視等帶入人工智能系統。

算法歧視與算法本身的構建和其基于的數據樣本數量及樣本性質密不可分。

算法歧視問題其實取決于底層數據的積累,數據積累越多算法計算就越準確,對某一人群的算法描述就越精準。同時,隨著算法復雜性的增加和機器學習的普及導致算法黑箱問題越來越突出。美國計算機協會公共政策委員會在《算法透明性和可問責性聲明》中提出七項基本原則,第一項基本原則即為解釋,其含義是鼓勵使用算法決策系統對算法過程和特定決策提供解釋,并認為促進算法的可解釋性和透明性在公共政策中尤為重要。未來人工智能系統將會更加緊密地融入社會生活的方方面面,如何避免諸如性別歧視、種族歧視、弱勢群體歧視等問題,確保人工智能合倫理行為的實現,這需要在當前注重數學和技術等基本算法研究之外,更多地思考倫理算法的現實必要性和可行性。

三、人工智能的隱私問題

1.個人隱私的過度收集

互聯網的發展以及人工智能技術的應用在很大程度上降低了大數據在分析應用方面的成本,攝像頭已經遍布我們生活的大部分角落,走在街上我們的一行一動,都隨時隨地在電子監控的掌控之中;計算機被廣泛利用來準確地記錄人們的瀏覽記錄:移動通信設備隨時跟蹤人們的通話記錄,聊天記錄等。在人工智能時代,在收集個人信息面前,人們面對無處可逃的命運。

在人工智能的應用中,監控發生了根本性的變化,融合了各種類型的監控手段,監控的力度也變的越來越強大。以CCTV視頻監控為例,它不再是單一的視頻監控或圖像記錄和存儲,其與智能識別和動態識別相結合,大量的視頻監控信息構成了大數據,在此基礎上通過其他技術的智能分析就能進行身份的識別,或是與個人的消費、信用等的情況進行關聯,構成一個人完整的數字化的人格。人工智能應用中的數據米源于許多方面,既包括政府部門也有工商業企業所收集的個人數據資料,還包含著用戶個人在智能應用軟件中輸入和提供的數據資料,比如在可穿戴設備中產生的大量個人數據資料,以及智能手機使用所產生的大量數據資料都可能成為人工智能應用中被監控的部分,它在不改變原有形態的前提下對個人的信息進行關聯,將碎片化的數據進行整合,構成對用戶自身完整的行為勾勒和心理描繪,用戶很難在此情況下保護自己的個人隱私。視頻監控還可能借助無線網絡通信,使隱私遭遇同步直播成為現實,一些非法的同步錄像行為,具有侵犯隱私利益的可能性。此類人工智能技術的廣泛應用,讓我們隱私無處安放,不僅超出了公眾所能容忍的限度,也是對整個社會隱私保護發起的挑戰。

2.個人隱私的非法泄露

在人工智能不斷發展,應用領域不斷拓展,人工智能技術在各行各業中都發揮著越來越重要的作用,滲透在各大領域之中,帶動著產業的發展,同時我們也必須承認該項技術的發展和應用無法避免的隱患。很多情況下,我們在不自知或不能自知的狀態下向智能應用的運營商或者服務提供商提供我們的數據信息,每個人的數據都可能被標記,被犯罪分子竊取并轉賣。

以“Facebook”數據泄露為例,2018年3月17日,美國《紐約時報》曝光Facebook造成5000多萬的用戶隱私信息數據被名為“劍橋分析(Cambridge Analytica)”的一家公司泄露,這些泄露的數據中包含用戶的手機號碼和姓名、身份信息、教育背景、征信情況等,被用來定向投放廣告。“而在此次事件中,一方面是由于使用智能應用的普通用戶對自身隱私數據缺乏危機意識和安全保護的措施,另一方面Facebook應用中規定只需要用戶的單獨授權就能收集到關聯用戶的相關信息,其將隱私設置為默認公開的選項給第三方抓取數據提供了可乘之機。同樣Facebook之所以受到譴責的一個重要原因就是未能保護好用戶的隱私數據,欠缺對第三方獲取數據目的的必要性審查,對第三方有效使用數據缺乏必要的監控,使個人數據被利益方所濫用,欠缺網絡安全事件的信息公開和緊急處理的經驗,不僅會侵害網絡用戶個人的合法權利,也會對社會的發展進步產生消極的影響。Facebook在對數據使用和流轉中,并未對個用戶數據提起重視、履行責任。在向第三方提供數據共享的便利同時并沒有充分考慮到用戶隱私保護的重要性和必要性,以及沒有采取必要的預防策略,極易對平臺數據造成濫用的風險。不難看出,從分析用戶的隱私數據來定向投放廣告追求商業價值和經濟利益,到一再發生的泄密事件使得用戶隱私數據信息泄露變得更加“有利可圖”。一方面,人工智能應用由于在技術上占有優勢,在獲得、利用、竊取用戶的隱私數據時有技術和數據庫的支撐,可以輕松實現自動化、大批量的信息傳輸,并在后臺將這些數據信息進行相應的整合和分析;另一方面,后臺竊取隱私數據時,我們普通的用戶根本無法感知到,在簽訂隱私條款時很難對冗長的條文進行仔細的閱讀,往往難以發現智能應用中隱藏著的深層動機。在此次數據泄露事件中,該平臺本身并沒有將用戶的數據直接泄露出去,而是第三方機構濫用了這些數據,這種平臺授權、第三方濫用數據的行為更加快了隱私泄露的進程。

3.個人隱私的非法交易

在人工智能時代,個人信息交易已形成完整的產業鏈,在這個空間中,一個人的重要隱私信息幾乎全部暴露在外,包括身份證號,家庭住址,車牌號,手機號碼和住宿記錄,所有這些的信息都成為待出售的對象。在人工智能技術廣泛應用的同時,人們常用的智能手機、電腦以及社交媒體平臺都在無時無刻的記錄著我們的生活軌跡,各種垃圾廣告和郵件可以實現精準的推送,推銷電話、詐騙短信等成為經常光顧的對象,盡管我們沒有購買理財產品,沒有購房需求,沒有保險服務等,也沒有向這些公司提供過自己的隱私數據信息,但無法避免而且能經常接到理財公司、房地產商、保險公司等的推銷電話。探究這些公司對用戶偏好和興趣精準了解的緣由,那便是人工智能應用中個人隱私的非法交易行為,我們保留在網站或企業中的個人信息,除了由該企業本身使用外,這些企業還經常與其他的個人和企業共同分享、非法交易,而忽略了公民的個人隱私安全。目前,人們的個人數據,如電話號碼,銀行卡信息,購車記錄,收入狀況,網站注冊信息等,已成為私人非法交易的嚴重災區,這些個人信息被不法分子通過非法交易獲得并通過循環使用來獲利。現階段,這類專門進行個人信息買賣的公司在國內不計其數,大大小小的分布在各種隱蔽的角落,甚至有一些正規的大型企業也免不了買賣個人信息的行為。當今社會,公民的很多日常行為都不得不提供自己的私人信息,如應聘工作、參加考試、購買保險、購買車票、尋醫看病等等。這些信息提供給企業商家后,他們就有義務對用戶的信息進行保密,而目前對用戶信息保密的相關法律規定還比較欠缺,因此往往寄希望于企業商家通過自律行為來保護用戶的隱私。但是目前的現狀是大多數企業的自身素質不高,單純將對隱私保護寄希望于商家企業的自律是不現實的,這些數據往往會被企業商家非法買賣,甚至將這些非法買賣的個人信息用于詐騙、傳銷。

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容