一、可怕的機器人:以及它們對英國公眾的意義
劍橋大學Leverhulme未來智能中心的研究人員和BBC,共同發(fā)起一項調(diào)研,對大約1000名英國人,進行了定量和定性調(diào)查,以了解人們對日益強大的人工智能系統(tǒng)的態(tài)度。
研究人員描述了與人工智能相關的四個希望以及與之相反的四個恐懼。他們把這些感覺描述為:
-(永生:野蠻)-我們會永生,但我們可能會失去人性。
-(舒適:退化)-一切變得輕松,但我們可能會退化。
-(滿足:異化)-人工智能可以完美回應我們的需求,但正因為如此有效,以至于我們更傾向選擇人工智能而不是人。
-(支配:叛亂)-我們可能會有更好的機器人軍隊,但這些機器人軍隊可能最終殺死我們。
哪些恐懼和希望可能成真?
研究人員詢問了人們,他們認為哪些事情是可能的,哪些是不可能的。48%的人認為有可能出現(xiàn)“舒適”,42%的人認為可能出現(xiàn)“支配”,35%的人認為可能出現(xiàn)“退化”。在不可能發(fā)生的事情方面,35%的人認為不可能出現(xiàn)“野蠻”,28%的人認為不可能出現(xiàn)“永生”,26%的人認為不可能出現(xiàn)“滿足”。
誰來開發(fā)人工智能?
在被調(diào)查者中有一個廣泛的共識,那就是AI無論如何都會發(fā)展。
但61.8%的受訪者不認為“他們能夠影響人工智能未來的發(fā)展”——顯然權(quán)力剝奪成為普遍的感受。
為什么重要?
公眾的態(tài)度將對日益強大的人工智能系統(tǒng)的發(fā)展產(chǎn)生重大影響。如果我們錯誤地判斷公眾的情緒,那么很可能社會將更少的采用人工智能,更少看到AI的好處,并且更加懷疑政府或其他人發(fā)表的關于人工智能的言論。同樣有趣的是,當人們非常支持人工智能發(fā)展時,社會可能會發(fā)生什么?政府和其他參與者的行為會有什么不同呢?
Source:http://www.aies-conference.com/accepted-papers/
二、算法、數(shù)據(jù)和人工智能的倫理和社會意義:研究的路線圖
現(xiàn)有工作中存在重大差距:
1、缺乏對關鍵概念的共同理解。
2、技術和輿論證據(jù)使用不足。
3、對原則和價值觀之間的緊張關系關注不足。
三個研究重點:
1、解決歧義。一些關鍵的概念,比如偏見,可解釋性,被用來表示不同的東西,這可能會阻礙進步。應澄清術語,注意如何在實踐中使用它們,并就定義達成協(xié)商一致的意見。
2、識別并解決緊張狀態(tài)。沒有充分注意這一領域許多問題所特有的權(quán)衡特點。該報告建議,通過觀察一項特定技術的成本和收益如何在不同群體之間、在短期和長期之間,在個人和整個社會之間分配,來解決這一問題。
3、建立證據(jù)基礎。我們需要更好的證據(jù)來證明技術的當前使用和潛在影響,以及我們未來應該期待的技術進步,公眾輿論。這些都是倫理討論的重要內(nèi)容。
Source:Ethicaland societal implications of algorithms, data, and artificial intelligence: aroadmap for research (Nuffield).
三、想要阻止你的AI系統(tǒng)被用于不好的目的?考慮一個負責任的AI許可證
Responsible AI Licenses(RAIL)由人工智能研究人員(專利律師/程序員)和美國西北大學教授Brent Hecht等共同開發(fā)。
1、目的:
RAIL提供源代碼許可和最終用戶許可,“開發(fā)人員可以在AI軟件中包含這些許可,以限制其使用,”這些許可證包括限制使用、復制和分發(fā)可能有害的技術領域應用程序代碼的條款”。
許可證的設計考慮到了人工智能技術的通用性,這意味著“可以用于更快、更準確的癌癥診斷的同一種人工智能工具,也可以用于功能強大的監(jiān)控系統(tǒng)”。這種缺乏控制的情況在開發(fā)人員開發(fā)開源ML或AI軟件包時尤為突出,這些軟件包是各種最有益的ML和AI應用程序的基礎。
2、工作原理:
它的工作原理是限制人工智能和ML軟件在特定的有害應用程序列表中使用,例如監(jiān)視和犯罪預測,同時允許其他應用程序使用。
3、為什么重要:
這類授權(quán)計劃的出現(xiàn),反映出一些人對人工智能技術在今天的應用感到焦慮。如果像這樣的許可被采用并被技術的用戶所遵循,那么它就為開發(fā)人員提供了一種非商業(yè)的方式,來稍微控制他們的技術是如何被使用的。但實際上,像RAIL這樣的方法對惡意行為者不起作用,他們在從事惡意活動時會忽略或突破特定軟件許可證中的任何限制。
Source:https://www.licenses.ai/
四、使用大規(guī)模計算變革科學
研究人員認為,駕馭越來越多計算的能力是科學發(fā)現(xiàn)的關鍵。
斯坦福大學、蘇黎世大學、加州大學伯克利分校和伊利諾伊大學香檳分校的研究人員收集了2017年在斯坦福大學舉辦的一系列講座的筆記,發(fā)布了一份學術研究人員使用大規(guī)模云計算技術的宣言。對兩種流行趨勢進行了回應:
1、在一些科學領域(例如機器學習),許多科學發(fā)現(xiàn),是通過使用日益大規(guī)模的計算系統(tǒng)做出的;
2、許多學術研究人員無法進行大規(guī)模的計算實驗,因為缺乏資源和/或認為它過于困難。
為什么計算重要:
作者預測“大規(guī)模計算實驗的出現(xiàn)將作為科學進步的基本途徑,補充傳統(tǒng)的歸納法(在觀察科學領域)和演繹法(在數(shù)學科學中)”。他們指出,“在我們看來,目前對機器學習(及其各種深度學習)的熱情高漲似乎證明,大規(guī)模的計算實驗已經(jīng)開始取得成效,是時候了?!边@些回報的例子包括:谷歌和微軟從統(tǒng)計機器翻譯轉(zhuǎn)向神經(jīng)機器翻譯,計算機視覺研究人員轉(zhuǎn)向使用基于深度學習的系統(tǒng),以及特斯拉等自動駕駛汽車公司使用越來越多的深度神經(jīng)網(wǎng)絡。
為什么重要:
固有的人工智能研究的一個問題是“大計算”和“小計算”,在少量的實驗室(例如,FAIR,? DeepMind,OpenAI, Google? Brain)能夠訪問大量的計算資源,而大部分的人工智能研究人員只能在自己構(gòu)建的GPU桌面上工作,或者嘗試訪問越來越無關緊要的大學超級計算集群。
能夠弄清楚如何使單個研究人員使用大量計算變得簡單,使更多的人更容易進行大規(guī)模實驗,有望加快科學進程。
五、思考來自人工智能的風險:事故、誤用和結(jié)構(gòu)
對人工智能風險的討論往往會將其缺點分為事故風險和誤用風險。這掩蓋了一個潛在危害的重要來源,作者稱之為結(jié)構(gòu)性風險。
misuse-accident的觀點將注意力集中在一個點上,在這個點上,一個糟糕的參與者將技術用于惡意目的,或者一個系統(tǒng)以一種意想不到的方式運行。而且這種觀點往往只關注導致傷害的因果鏈的最后一步,進而將政策重點放在關注最后一個因果關系的措施上。
從結(jié)構(gòu)的角度看,在許多情況下,即使一個點或者一個參與者的行為發(fā)生了變化,風險水平也基本保持不變。就像雪崩一樣,追問是什么導致了斜坡變得如此陡峭,而不是什么具體的事件引發(fā)了它,可能更有用。
從結(jié)構(gòu)的角度來看:在沒有事故或誤用的情況下,技術可以通過重要的方式塑造世界,從而產(chǎn)生重大的負面影響。例如,歐洲鐵路系統(tǒng)已被認為是第一次世界大戰(zhàn)爆發(fā)及其波及范圍的一個重要因素,它使部隊和武器能夠大規(guī)模運輸?shù)秸麄€大陸。
人工智能和結(jié)構(gòu)的兩種關系:
首先,人工智能如何影響結(jié)構(gòu)環(huán)境和激勵,其次,這些環(huán)境和激勵如何影響人工智能系統(tǒng)的決策。
有很多例子表明,人工智能可以以有害的方式影響結(jié)構(gòu)。人工智能可能破壞核大國之間的穩(wěn)定,損害二次打擊能力,增加先發(fā)制人升級的風險。人工智能對經(jīng)濟競爭、勞動力市場和公民自由的影響的擔憂也屬于這一類。
反之,結(jié)構(gòu)本身也會增加與AI相關的風險。比如2018年初Uber自動駕駛造成的致命的交通事故,經(jīng)調(diào)查發(fā)現(xiàn),不是系統(tǒng)沒有識別到人,也不是制動系統(tǒng)失靈,而是工程師迫于市場競爭的壓力和內(nèi)部新CEO的壓力,有意使他們的制動系統(tǒng)相對于競爭對手看上去不過于敏感造成的。另外,在國際上,如果沒有國際協(xié)調(diào)機制,各國可能會被迫犧牲安全來實現(xiàn)軍事人工智能。
政策建議:
1、人工智能政策群體必須擴大。從社會科學和歷史學中吸收更多的專業(yè)知識是解決這一問題的一種方法,因為這些學科在通過結(jié)構(gòu)性視角處理復雜問題方面更有經(jīng)驗。
2、應該花更多的時間考慮創(chuàng)造或調(diào)整AI集體規(guī)范和制度的可能性。鑒于人工智能帶來的許多重大風險無法通過單邊行動加以解決,所以如何通過協(xié)調(diào)的方式改變?nèi)藗兊男袨?,往往是最有效的政策方向?/p>
Source:ThinkingAbout Risks From AI: Accidents, Misuse and Structure (Lawfare).