現(xiàn)在的機器人已經(jīng)擁有了智能自治系統(tǒng),因此有時它們自己也會產(chǎn)生特定的“焦慮”和不確定性,即使是每天它們都在完成同一種任務,這樣的可能性也是存在的。因此,為了減少機器人出現(xiàn)的“焦慮”,我們應該更加著重研究如何能夠讓它們真正的在時間代替人類做出正確的決定。只有這樣,在某種程度上來說,這樣的機器人才比人類更加可靠。
不管你是否認同,自治系統(tǒng)已經(jīng)存在于相當數(shù)量的機器人中。這里的“自治系統(tǒng)”通常指的是機器人做出自動判斷的能力,在什么情況下應該做什么事情。到目前為止,我們所能夠接觸到的機器人,比如機器人吸塵器、自動停車系統(tǒng)、飛機駕駛儀等都非常簡單,幾乎并沒有過多的涉及自治系統(tǒng)概念。這些系統(tǒng)雖然能夠適應它們所處的環(huán)境,并且自動對環(huán)境變化進行應對,但是都是實現(xiàn)已經(jīng)進行了編程錄入,通過環(huán)境的變化來調(diào)取相應的命令。
經(jīng)常喜歡看科幻故事的朋友都知道,其實機器人還可以更進一步。我們關心的是,但機器人取代了普通的人類飛行員之后,在遇到特殊情況時會自動根據(jù)條件變化做出合適的對策。在目前的飛行系統(tǒng)中,自動駕駛系統(tǒng)可以使飛機在固定的航線中飛行,但是依然需要人類飛行員來決定該走哪個方向、什么時候轉(zhuǎn)彎以及如何應對意想不到的意外情況。同樣的道理,巡航控制、車道控制等系統(tǒng)雖然可以讓汽車根據(jù)當前路線自動行駛,但是一切重大決策的制定還是要依靠人類。但是一旦自治系統(tǒng)變得更加先進,軟件就會發(fā)揮更大的作用。我們將不再需要真正的人類來決定何時改變飛機的飛行路線或當高速公路關閉后選擇哪條小路繼續(xù)行駛。
相信許多人看到這樣的想法,一定會有這樣的擔心。即使是一臺機器可以自動做出決定,那么我們怎么保證它的決定是安全的呢?相信看過《終結者》系列電影的朋友都知道,機器人其實也并非完全可靠,而在現(xiàn)實生活中,選擇乘坐飛機本身就是具有一定危險概率的時間,更不用說這架飛機還是完全依靠“沒血沒肉”的機器人來駕駛。
通常情況下我們大致要面臨兩種選擇。完全相信它們或拒絕它們。不過現(xiàn)在已經(jīng)出現(xiàn)了第三種選項。當我們在與另外一個人相處時,雖然我們無法確定對方做出什么樣的決定,但是我們可以基于對對方的了解而做出我們自己的判斷。而判斷的依據(jù)就是對方之前是否欺騙過我們或有過類似的經(jīng)歷。但是我們并不能完全根據(jù)這種經(jīng)驗判斷來假設對方一定是在欺騙自己。而機器人的自治系統(tǒng)則并不一樣。它的本質(zhì)上是由軟件來控制,因此如果我們能夠?qū)⑦@些軟件變得“完美”,將所有人類的高級思維融入其中,而軟件和系統(tǒng)就會可以非常詳細的分析行動計劃。在這一點上,人類的大腦可并非輕易能夠辦到。
目前,一種對計算機科學與軟件的深入分析研究已經(jīng)變得越來越流行,特別是如何證明軟件的邏輯分析能力如何正確的匹配實際的需求。這種方法被稱為形式驗證(formalverification),在分析和評估足以影響人類安全的軟件中非常有用,比如火車站、生命支持系統(tǒng)或交通系統(tǒng)等。一旦這些軟件能夠通過自治系統(tǒng)做出更高級的決定,我們就可以對某些項目的詳細工作進行更加準確的驗證。
而目前科學界的研究主要的方向就是如何驗證這種自治系統(tǒng)所做出的行為判斷為科學,來證明通過軟件控制的機器人系統(tǒng)永遠不會做出錯誤或糟糕的決定。
這個決策的過程也是讓機器人被信賴的核心之處,如何更舒心、更省力的讓機器來做出決定。不過這樣的工作系統(tǒng)通常都是非常復雜和充滿了不確定性的,所以即使是事故已經(jīng)發(fā)生,我們也要保證軟件系統(tǒng)之前已經(jīng)至少嘗試了試圖避免事故發(fā)生。這似乎是一種不可避免的缺點,但是至少可以讓那些擔憂科幻小說中出現(xiàn)機器人欺騙人類情況的朋友稍微放心一些。
雖然我們不能肯定的說一個機器人永遠都不會意外的對人類造成傷害,但是通過系統(tǒng)和實驗證明至少這些傷害都不是機器人故意的行為。通過觀察機器人內(nèi)部的編程代碼,我們不僅要評估它們要去做什么,更要評估它們?yōu)楹我@樣做。盡管目前人類對于機器人和自治系統(tǒng)依然無法完全相信,但是如果了解了系統(tǒng)并不會故意對人類造成欺騙,也許就會讓這些人對機器人的好感度能夠提升一點。
目前主要的問題就是我們要證明的是什么,而不是如何來證明。我們永遠無法試圖證明一個機器人會故意選擇傷害人類,但是對于諸如醫(yī)療機器人或警察機器人這種特殊行業(yè)的例子來說,也有可能是它們在試圖幫助人類(比如進行胸部施壓幫助呼吸)的過程中無意中對人類造成傷害。還有機器人警察在保護普通公民的時候也會對犯罪份子開槍,這雖然傷害了某個人類的個體,但是其實也是為了保護大多數(shù)人的安全。
通過上面的闡述,我們已經(jīng)從技術、哲理和倫理的角度為未來機器人更加普及的應用進行了一些證明。因此如果未來機器人和自治系統(tǒng)真的試圖在某些領域完全代替人類,我們也要相信它們本身的決策過程都是以獲得結果為依據(jù)的。