国模叶桐尿喷337p人体,国产乱xxⅹxx国语对白,国产精品人妻无码久久久郑州,国产一区二区内射最近更新,国产一区二区三区不卡在线看

首頁 人工智能發(fā)展與應(yīng)用產(chǎn)業(yè)觀察觀點(diǎn)正文

“數(shù)據(jù)透鏡”下的倫理反思

  人工智能領(lǐng)域出現(xiàn)的各種顛覆性創(chuàng)新,使人們體驗(yàn)到了前所未有的便利與新鮮,同時也極大地加劇了人們對未來智能化世界的憂思。

  人工智能(AI)近年來漸成科技創(chuàng)新領(lǐng)域的一個風(fēng)口,一方面給人們的生活帶來了越來越多的便利和新鮮體驗(yàn),另一方面大數(shù)據(jù)殺熟、數(shù)據(jù)泄露、不良內(nèi)容推薦等事件和現(xiàn)象層出不窮,使人們不得不反思智能算法的價值預(yù)設(shè)、倫理導(dǎo)向,追問AI在不當(dāng)使用時的潛在風(fēng)險,并探尋如何對其進(jìn)行更具針對性的價值引導(dǎo)、倫理調(diào)節(jié)與風(fēng)險規(guī)制。

  機(jī)器人三定律

  人們對AI價值、倫理等問題的關(guān)切始于對“機(jī)器人與人類關(guān)系”的想象。自雪萊夫人1818年發(fā)表的《弗蘭肯斯坦》到恰佩克1921年出版的《羅素姆萬能機(jī)器人》,前者呈現(xiàn)了科學(xué)怪人的惡劣形象,后者展現(xiàn)了機(jī)器人群體叛亂、滅絕人類的恐怖結(jié)果,這兩部影響深遠(yuǎn)的科幻小說都體現(xiàn)了人們在暢想制造類人生命和智能時不無矛盾的心態(tài):對其“創(chuàng)造物”可能出現(xiàn)的不健全與失控的擔(dān)憂乃至懼怕,被稱為“弗蘭肯斯坦情結(jié)”。

  1942年,阿西莫夫發(fā)表了短篇科幻小說《轉(zhuǎn)圈圈》,其中借《機(jī)器人學(xué)手冊》之名提出了著名的“機(jī)器人三大定律”,為擺脫“弗蘭肯斯坦情結(jié)”提供了某種解決方案。

  第一定律,機(jī)器人不得傷害人類或坐視人類受到傷害;第二定律,在與第一定律不相沖突的情況下,機(jī)器人必須服從人類的命令;第三定律,在不違背第一與第二定律的前提下,機(jī)器人有自我保護(hù)的義務(wù)。此后,他還提出了比第一定律更優(yōu)先的第零定律,即機(jī)器人不得危害人類整體(人性)或坐視人類整體(人性)受到危害。如今,這些定律已成為人們思考與機(jī)器人、AI相關(guān)的社會、倫理和法律問題的思想原點(diǎn)。

  值得一提的是,阿西莫夫提出的“機(jī)器人三大定律”并非紙面上的機(jī)器人行為法則和道德戒律,而是直接嵌入到機(jī)器人的控制軟件或智能編碼中的指令,可通過技術(shù)操作強(qiáng)制執(zhí)行。在小說《轉(zhuǎn)圈圈》中,三大定律是根深蒂固地嵌入到機(jī)器人大腦中的運(yùn)行規(guī)則:執(zhí)行每個定律時,都會在機(jī)器人大腦中自動產(chǎn)生相應(yīng)的電位,執(zhí)行第一定律所觸發(fā)的電位最高;若不同定律之間發(fā)生沖突,根據(jù)不同電位相互消長的結(jié)果執(zhí)行指令。概言之,可以通過內(nèi)置的“機(jī)器倫理調(diào)節(jié)器”使機(jī)器人成為有道德的機(jī)器人。

  今天看來,“機(jī)器人三大定律”的真正價值可能更多地在于理念上的突破,其顛覆了“人造人”、機(jī)器人此前一貫的負(fù)面形象,通過工程上的倫理設(shè)計(jì)調(diào)節(jié)機(jī)器人的行為,使其成為可堪教化的有道德的機(jī)器人。阿西莫夫的構(gòu)想對于當(dāng)前AI技術(shù)的重要啟迪在于,為了使人所創(chuàng)造的智能機(jī)器人和人工智能有益人類和免于失控,應(yīng)致力于從人類價值、利益、安全以及未來發(fā)展的角度對它們進(jìn)行價值校準(zhǔn)、倫理調(diào)節(jié)與風(fēng)險規(guī)制,以此消除人們對其終極創(chuàng)造物的疑慮,并指明其未來發(fā)展可能與必要的突破方向。

  “數(shù)據(jù)透鏡”

  從科幻回到現(xiàn)實(shí),雖然人類至今尚未制造出阿西莫夫機(jī)器人小說中的智能機(jī)器人,但人工智能在幾起幾落之后找到了數(shù)據(jù)智能這一新的突破口。近年來,數(shù)據(jù)分析與認(rèn)知計(jì)算等數(shù)據(jù)智能取得了出乎人們意料的迅猛發(fā)展,人們恍然大悟:數(shù)據(jù)就是存在,數(shù)據(jù)就是人,數(shù)據(jù)就是世界。當(dāng)關(guān)于世界和人類活動的數(shù)據(jù)積累到一定程度后,巨量的和多維度的數(shù)據(jù)就逐漸積淀為反映人和世界真實(shí)面貌和過程的原始素材,進(jìn)而成為認(rèn)識與改變?nèi)撕褪澜珀P(guān)系時可資利用的資源和線索。

  從人類文明嬗變的維度看,數(shù)據(jù)智能遠(yuǎn)不止是科學(xué)方法上的創(chuàng)新,更意味著解析社會這一全新的文明形態(tài)的涌現(xiàn)。不論是內(nèi)容推薦還是人臉識別,數(shù)據(jù)智能的社會應(yīng)用實(shí)質(zhì)上是對人的行為的解析,我們可以形象地將數(shù)據(jù)智能稱為“數(shù)據(jù)透鏡”。透鏡在人類科學(xué)史乃至人類歷史上是尤為關(guān)鍵的發(fā)明,借助透鏡和三棱鏡制作的望遠(yuǎn)鏡、顯微鏡和各種分析儀器,自然界得以透視、分析和量化研究?,F(xiàn)在,人們正在運(yùn)用數(shù)據(jù)智能這一“數(shù)據(jù)透鏡”透視人性,對人自身進(jìn)行量化分析。隨著數(shù)據(jù)智能的發(fā)展,用數(shù)據(jù)解析人將影響到人類社會生活的方方面面,從政府、企業(yè)、機(jī)構(gòu)、社會、家庭到個人的認(rèn)知和行為方式都必然受到相應(yīng)的挑戰(zhàn)和沖擊,都必須對此作出回應(yīng)和調(diào)整。

  數(shù)據(jù)智能建立在數(shù)據(jù)的搜集、分析和認(rèn)知的自動化之上,而這些過程實(shí)現(xiàn)自動化的關(guān)鍵是各種智能算法的運(yùn)用,它們決定了各種廣告和推薦系統(tǒng)給每個人所推薦的內(nèi)容,也影響到每個人在各種人工智能平臺上的數(shù)據(jù)畫像和信用評分。數(shù)據(jù)智能使每個人不再只是作為群體中的個體而是作為單個的個體得到分析,商業(yè)貌似變得更加“智能”和便捷,營銷似乎更為“精準(zhǔn)”和更具“說服力”。

  倫理設(shè)計(jì)

  但不得不指出,如果整個社會逐漸被納入到基于數(shù)據(jù)和算法的精細(xì)管理和智能監(jiān)控之下,各種決策與舉措越來越多地建立在智能算法之上,就必須關(guān)注和防范由算法的濫用所導(dǎo)致的決策失誤和社會不公。由于智能算法在決策運(yùn)用層面的影響具有突發(fā)性和高度不確定性等固有風(fēng)險,不能想當(dāng)然地迷信算法的科學(xué)性和客觀性,而應(yīng)對其展開必要的算法審計(jì)。

  所謂算法審計(jì),一方面要對算法的理論預(yù)設(shè)、內(nèi)在機(jī)制與實(shí)踐語境等進(jìn)行全流程追問與核查,另一方面,從智能認(rèn)知和算法決策的結(jié)果和影響中的不公正入手,反向核查其機(jī)制與過程有無故意或不自覺的曲解與誤導(dǎo),揭示其中存在的不準(zhǔn)確、不包容和不公正,并促使其修正和改進(jìn)。

  借助算法審計(jì),將提升算法決策過程中的透明度和公正性,使得智能系統(tǒng)的運(yùn)行機(jī)制變得更好理解,更容易追究責(zé)任。

  在當(dāng)前的數(shù)據(jù)智能平臺的發(fā)展實(shí)踐中,對價值取向的追問與審度是算法審計(jì)的要點(diǎn),其應(yīng)對要點(diǎn)是引入倫理設(shè)計(jì)。倫理設(shè)計(jì)的主要功能是價值與倫理層面的矯正,涉及一系列有針對性與對抗性的設(shè)計(jì),故可稱之為爭勝性倫理設(shè)計(jì)。

  爭勝性的倫理設(shè)計(jì)主要包括四個方面:

  一是價值揭示,即通過對數(shù)據(jù)智能應(yīng)用中所涉及的相關(guān)主體或群體的分析,揭示他們的價值訴求與利害關(guān)系。例如,在當(dāng)前流行的網(wǎng)約車服務(wù)中,通過對司機(jī)、乘客和平臺的利益分析和價值分析,可以揭示出在共享交通平臺軟件上附加社交媒體功能對各方的利害得失與價值沖突。

  二是價值糾偏,即用更合理的價值觀糾正和取代導(dǎo)致不合理、不公正后果的價值觀。比如,在網(wǎng)約車服務(wù)中,應(yīng)該糾正平臺利用某些司機(jī)的人性弱點(diǎn)所設(shè)計(jì)的評分機(jī)制及其背后的不正當(dāng)價值觀,使平臺回歸安全及時送達(dá)乘客的應(yīng)有價值取向。

  三是倫理引導(dǎo),即通過智能化的助推和勸導(dǎo)使人的行為更合乎倫理規(guī)范。例如,在保護(hù)個人隱私的情況下,可以運(yùn)用交通大數(shù)據(jù)協(xié)助司機(jī)規(guī)范自己的出行行為。

  四是倫理增強(qiáng),即進(jìn)一步通過借助數(shù)據(jù)智能提升自己的道德水準(zhǔn)。例如,個人可運(yùn)用可穿戴設(shè)備提供的個人數(shù)據(jù)改進(jìn)自己在某些方面的行為。

  面對人工智能當(dāng)前發(fā)展態(tài)勢下的倫理沖突和風(fēng)險挑戰(zhàn),有兩個方面的問題值得進(jìn)一步反思。其一是數(shù)據(jù)權(quán)利與算法權(quán)力的再平衡,其二是走向人機(jī)共生時代的人機(jī)關(guān)系再平衡。

  數(shù)據(jù)所有權(quán)關(guān)系再平衡

  談到數(shù)據(jù)權(quán)利,有必要提及歐盟最近頒布的《通用數(shù)據(jù)保護(hù)條例》(GDPR)。該條例明確指出其保護(hù)的主體是個人數(shù)據(jù),而個人數(shù)據(jù)是指與一個已被識別或者可被識別的自然人相關(guān)的任何信息。

  該條例對數(shù)據(jù)的獲取權(quán)、修改權(quán)、被遺忘權(quán)、數(shù)據(jù)可攜帶權(quán)、異議權(quán)等數(shù)據(jù)主體的權(quán)利作出了明確界定。這些數(shù)據(jù)權(quán)利可以視為在價值和倫理層面對相關(guān)侵權(quán)行為的反制。但同時也要看到,這些權(quán)利并非無條件的絕對權(quán)利,都存在一定的限制。以對數(shù)據(jù)畫像異議權(quán)為例,只有當(dāng)對用戶進(jìn)行畫像等決策對用戶產(chǎn)生法律或其他重大影響時,用戶才有權(quán)反對。

  在數(shù)據(jù)智能得到普遍應(yīng)用的解析社會,個人數(shù)據(jù)權(quán)利的重要性不言而喻。在解析社會中,不論我們主動與否,我們都是數(shù)據(jù)的貢獻(xiàn)者,一切數(shù)據(jù)都被記錄,一切行為都被分析。數(shù)據(jù)智能不斷追蹤著每個人的數(shù)據(jù),實(shí)際上就是在追蹤每個人的價值觀,也可以說是通過分析數(shù)據(jù)定義人。不論我們喜歡與否,我們被追蹤的行為數(shù)據(jù)都會以我們從未體驗(yàn)過的方式,傳送到他人和機(jī)構(gòu)那里;掌握我們數(shù)據(jù)的人和機(jī)構(gòu)可能比我們自己更了解自己,甚至?xí)擅畹貏裾f和引導(dǎo)我們的言行。

  由此,數(shù)據(jù)智能和解析社會的未來發(fā)展必將面臨著數(shù)據(jù)所有權(quán)關(guān)系的再平衡:是延續(xù)當(dāng)下流行的數(shù)據(jù)監(jiān)控模式還是創(chuàng)造一個以信任為基本氛圍的新的數(shù)據(jù)共享模式?如果延續(xù)監(jiān)控模式而不對個人數(shù)據(jù)權(quán)利加以必要的保護(hù),恐將導(dǎo)致信任的稀缺,最終不利于經(jīng)濟(jì)、社會等多領(lǐng)域的發(fā)展繁榮。如果致力于尋求以信任為基本氛圍的新模式,將促使數(shù)據(jù)交易各方對自己的行為負(fù)責(zé),讓每個人知道自己的數(shù)據(jù)如何被處理,特別是用于其他用途的情形,讓數(shù)據(jù)權(quán)利的主體原則上有權(quán)決定對其數(shù)據(jù)的處理與洞察,以此減少數(shù)據(jù)的濫用,杜絕對數(shù)據(jù)主體的嚴(yán)重傷害。同時,數(shù)據(jù)主體的數(shù)據(jù)權(quán)利意識的提升,也可以促使其通過追蹤自己的數(shù)據(jù)反省自己的價值觀,借助數(shù)據(jù)分析不斷改進(jìn)自我。然而“知易行難”,如何“創(chuàng)造”這一模式一時難有定論。

  人機(jī)關(guān)系再平衡

  另一方面,即便未必出現(xiàn)如未來學(xué)家?guī)炱濏f爾等人宣稱的超級人工智能大爆發(fā)的奇點(diǎn),人與機(jī)器的關(guān)系依然存在兩種值得深思的未來情境。

  第一種就是由機(jī)器人來掌控世界。它并非智能機(jī)器造反的結(jié)果,而是因?yàn)槿藗儗C(jī)器產(chǎn)生了高度的依賴。隨著時代的發(fā)展,人們需要面對的問題越來越復(fù)雜,由于知識的專業(yè)化和復(fù)雜化,人越來越多地依靠智能機(jī)器,以至于最終不得不把大多數(shù)決策權(quán)讓渡給機(jī)器。其實(shí),這一過程已經(jīng)在進(jìn)行之中,飛機(jī)在很多情況下都是由機(jī)器決定怎么開,自動駕駛也在向這個方向發(fā)展。但問題是,一旦等到機(jī)器本身真正出問題的時候,也不可能關(guān)閉這些機(jī)器,因?yàn)殛P(guān)閉機(jī)器就意味著自殺,就像現(xiàn)在,如果把網(wǎng)絡(luò)關(guān)了,就意味著這個社會可能會癱瘓。

  第二種未來情境,就是人類繼續(xù)保持對機(jī)器的控制。但是在這種情況下,可能出現(xiàn)的一個問題是只有少數(shù)精英能夠掌握智能機(jī)器的技術(shù),普通人不僅不了解其中的奧秘,而且對整個系統(tǒng)來說會變得不是那么必要,甚至成為累贅,這就是所謂“無用階層”的出現(xiàn)。

  要克服這兩種情境可能給人類文明帶來的風(fēng)險,須對人類在自動智能系統(tǒng)中的地位和作用加以認(rèn)真審視,可考慮引入若干促進(jìn)人機(jī)相互理解與協(xié)同的策略。

  其一,將人與機(jī)器之間的相互理解作為自動智能系統(tǒng)的基礎(chǔ)和前提,其中既包括理性層面的認(rèn)知方式與知識表達(dá)層面的人機(jī)相互理解,還包括人與機(jī)器之間的共情關(guān)系和同理心的構(gòu)建。

  其二,一些重大決策和執(zhí)行系統(tǒng)如果采用自動智能系統(tǒng),應(yīng)有多個備份和功能類似的替代性系統(tǒng),以防范系統(tǒng)風(fēng)險。

  其三,構(gòu)建人工智能應(yīng)用特區(qū),在有條件的科技創(chuàng)新中心的部分地區(qū)廣泛、深入、充分地展開人機(jī)互動試驗(yàn),探索面向未來人機(jī)共生社會的創(chuàng)新文化。

 ?。ㄗ髡撸憾蝹ノ模抵袊缈圃赫軐W(xué)研究所、科學(xué)技術(shù)和社會研究中心研究員)

  2018年6月27日出版的《環(huán)球》雜志 第13期

  注:《環(huán)球》雜志授權(quán)使用,其他媒體如需轉(zhuǎn)載,請與該刊聯(lián)系。

  

責(zé)任編輯:陳近梅

分享: