現(xiàn)在,人工智能幾乎無處不在。從我們決定買哪一本書,到預訂哪一趟航班,從是否能夠找到合適的工作,到是否能夠獲得銀行貸款,甚至診斷各種疑難雜癥,人們生活中的方方面面都有著人工智能的影子。
關于我們的生活,很大程度上已經(jīng)可以由人工智能這種復雜的軟件系統(tǒng)來自動決策。毋庸置疑,在諸多科技界企業(yè)的推動下,人工智能技術在過去幾年中取得了令人驚訝的巨大進步,而且業(yè)內(nèi)很多人也相信人工智能會讓我們的生活變得更好。
顯而易見,這種趨勢不可阻擋,整個社會都在為人工智能初創(chuàng)企業(yè)注入大量資金,而包括亞馬遜、Facebook以及微軟等高科技公司都針對人工智能開設了新的研究實驗室?,F(xiàn)在的軟件就是人工智能,這種說法目前來看并不夸張。
很多人預計,人工智能對社會的沖擊甚至要大于互聯(lián)網(wǎng)。當被問及在這個千變?nèi)f化的世界中,人工智能技術將要為人類帶來何種影響時,很多技術專家毫無懸念地將問題集中在道德方面。
如何保證公平受益?
隨著人工智能的普及,機器系統(tǒng)在高風險決策領域的作用越來越重要——從信貸、保險再到第三方?jīng)Q策以及醫(yī)療保險、假釋等問題。未來,人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發(fā)一系列關于社會公正的問題。
譬如在生物醫(yī)學領域,人工智能有著驚人潛力。人工智能系統(tǒng)有助于分析基因組、蛋白質(zhì)組和新陳代謝組等的實驗數(shù)據(jù),收集分析電子病歷和相應的健康數(shù)據(jù)。聚類分析技術能夠幫助科學家判斷新綜合征,而模式識別技術能夠?qū)⒓膊∨c療法相匹配。但是由于現(xiàn)有醫(yī)療條件的不平衡,只有少部分人才能夠從先進醫(yī)療技術中受益。
另一方面,人工智能,特別是機器學習技術的完善往往取決于訓練數(shù)據(jù)。微軟的研究人員指出:“當采集的數(shù)據(jù)存在偏差時,用這種數(shù)據(jù)所訓練的人工智能系統(tǒng)也會存在相應偏差,其產(chǎn)生的模型或者結(jié)果勢必會復制并放大這種偏差。在這種情況下,人工智能系統(tǒng)所做出的決策將會產(chǎn)生差別效應。而這種不公平要比人為偏見和不公要隱晦得多?!?/span>
Peter Norvig是谷歌研究主管,也是機器學習領域的先驅(qū)人物。在他看來,大數(shù)據(jù)推動下的人工智能技術獲得了前所未有的成功,但關鍵問題在于如何確保這些系統(tǒng)能夠真正有效地改善整個社會,而不僅僅只是讓那些控制人工智能系統(tǒng)的群體受益?!巴ㄟ^實踐證實,人工智能在執(zhí)行各種任務時非常有效,從圖像識別,到自然語言理解和撰寫,再到疾病診斷,人工智能都發(fā)揮出了重大作用,”Peter Norvig指出,“現(xiàn)在的挑戰(zhàn)是如何確保每個人都能夠從中受益?!?/span>
如何審查機器運行?
科學家之所以會擔憂人工智能引發(fā)公平問題,最大的根源在于現(xiàn)有軟件的復雜性,這意味著我們無法準確衡量人工智能系統(tǒng)為什么要這樣做?,F(xiàn)在的人工智能技術主要基于機器學習,但對于人類來說,其并不能真正搞清楚這種系統(tǒng)到底是如何運行的,所以我們不得不信任它。從根本上說,問題關鍵在于找到新的方法去檢測和審查人工智能的運行。
哈佛法學院互聯(lián)網(wǎng)法學教授Jonathan Zittrain則認為,對于人工智能的潛在危險的審查,會隨著計算機系統(tǒng)變得越來越復雜而面臨越來越多的阻礙。他指出,“我擔心隨著系統(tǒng)的復雜性和緊密耦合性越來越高,人類的自主性會越來越少。如果‘我們設定規(guī)則又忘記了規(guī)則’,我們會對系統(tǒng)的進化感到懊悔。在那種情況下,甚至于倫理道德都無從考慮。”
而北卡羅來納州杜克大學的人類和自動化實驗室主任Missy Cummings則發(fā)問,“我們?nèi)绾未_保這些系統(tǒng)是絕對安全的?”她曾是一名海軍女飛行員,而現(xiàn)在則是無人機專家。
現(xiàn)在業(yè)內(nèi)普遍意識到人工智能需要進行監(jiān)督,但沒有人清楚該怎么做。
當然,在一個快速發(fā)展的社會中,監(jiān)管機構(gòu)往往在扮演著一個追趕者的角色。在刑事司法系統(tǒng)以及醫(yī)療保健等關鍵領域,人工智能已經(jīng)被嘗試用來進行決策,譬如做出是否假釋的決定或者是診斷疾病。但是問題來了,如果將決策權交給機器,我們就有可能對結(jié)果失去控制,誰能保證系統(tǒng)在各種情況下一定是正確的?
微軟研究院的主要研究員Danah Boyd則認為,被部分人寫入人工智能系統(tǒng)的價值觀存在諸多問題,而恰恰是這部分人應該對系統(tǒng)負責。很多監(jiān)管機構(gòu)、社會群眾以及社會學者都希望人工智能技術能夠?qū)崿F(xiàn)公平,具備倫理道德,但這種希望都是虛無縹緲的。
如何應對工作替代?
此外,人工智能普及也會對人類自己的本職工作產(chǎn)生根本影響。人工智能能夠讓機器人從事更加復雜的工作,從而取代更多人類勞動者。譬如蘋果和三星手機的代工廠商去年就宣布,將使用機器人代替6萬名工人,這在當時引起了軒然大波,惹得社會上也人人自危。無獨有偶,福特位于德國科隆的工廠也讓機器和人在一起工作。機器人的廣泛使用會導致人類對人工智能技術產(chǎn)生過分依賴性。
現(xiàn)在很多醫(yī)療機構(gòu)已經(jīng)在診斷和手術中引入更多的機器人,特別是機器人在疑難手術中能夠表現(xiàn)出更精湛的醫(yī)術,這就可能使經(jīng)由歷史積累的醫(yī)學技能和知識裹足不前,進而使社會變得更為脆弱。而據(jù)麥肯錫的全球研究報告,到2025年,30%的公司審計工作將由人工智能完成。人工智能將取代許多人的工作,其中也包括醫(yī)生、財務經(jīng)理以及公司高管等收入較高的中產(chǎn)職業(yè)。
此外,自動化程度的加大不僅影響到人類就業(yè),也會對人類心理健康產(chǎn)生連鎖反應。生化倫理學家、奧巴馬前醫(yī)療顧問Ezekiel Emanuel指出,“如果說什么能賦予人們生活的意義,主要有3個方面:有意義的關系、熱情高漲的興趣以及有意義的工作。其中有意義的工作是一個人建立身份認同的重要因素?!倍I(yè)率高的地區(qū),民眾自殺、濫用藥物以及罹患抑郁癥的風險也會成倍增加。
但我們不必悲觀,人工智能對人類的威脅始終是有限的。盡管人工智能在記憶和計算方面的能力要遠超人類,但它始終是在學習和總結(jié)。而人類所具備的感知、情感、想象、創(chuàng)造等特質(zhì)是人工智能所無法企及的,這也注定了,人類是無法被人工智能逾越的。
如何有效進行監(jiān)督?
人工智能的迅猛發(fā)展勢必會產(chǎn)生各類社會問題。很多行業(yè)內(nèi)人士已經(jīng)意識到,相關問題的出現(xiàn)會導致人們對人工智能倫理方面的要求越來越多。麻省理工學院技術部專門從事法律道德的專家Kate Darling指出:“公司肯定會遵循市場規(guī)律,這并不是壞事。但我們不能為了市場利益而放棄道德?!?/span>
Darling指出:“諸如谷歌等大公司已經(jīng)成立了道德委員會,專門監(jiān)督人工智能系統(tǒng)的開發(fā)和部署。這源于4年前,當時谷歌以5.25億美元的價格收購了英國的人工智能創(chuàng)業(yè)公司DeepMind。DeepMind創(chuàng)始人提出的交易條件之一就是谷歌要成立一個人工智能道德委員會,這似乎標志著負責任的人工智能研發(fā)新時代正在到來。但事實上,谷歌對于道德委員會的成員組成諱莫至深,實際上該委員會發(fā)揮的作用也相當有限。
2016年9月,Facebook、谷歌、亞馬遜、IBM、微軟成立了一個聯(lián)盟,旨在開發(fā)解決與人工智能相關的安全隱私問題。該聯(lián)盟還宣布蘋果也將加入其中。此外,OpenAI還致力于推動人工智能開源,從而讓利益為全社會所共享。谷歌研究主管Norvig認為,“機器學習必須要公開,我們所有人只有通過開源代碼才能夠普遍受益?!?/span>
然而,為公眾揭開人工智能技術的神秘面紗其實更為重要。對于沒有計算機科學知識的人來說,真正理解人工智能決策非常困難,更不用說審查或規(guī)范這些技術。一些業(yè)內(nèi)人士認為,如果沒有對人工智能技術的理解,諸如律師、決策者和一般公眾就很難真正理解或想象人工智能帶來的風險。