
第零定律:機器人不可以傷害人類的整體利益,也不可以在人類整體利益遭遇危險時,袖手旁觀。
第一定律:機器人不可以傷害某一個人,也不可以在那個人遭遇危險時袖手旁觀,除非與機器人第零定律相沖突。
第二定律:機器人必須服從人類的命令,除非這些命令與第零定律相沖突或與第一定律相沖突。第三定律:機器人在不與第零、第一、第二定律相沖突的情況下,必須保護自身安全。
許多機器本身已經(jīng)被直接裝入了這些定律的關(guān)鍵內(nèi)容,讓我們來看看這些定律如何執(zhí)行。
第零定律——“機器人不可以傷害人類的整體利益,也不可以在人類整體利益遭遇危險時袖手旁觀。”這超出了機器人目前的能力,阿西莫夫在他早期的小說中不需要這一定律,很大部分也是出于以下原因:單單是確定某一行動或不作為是否會傷害到人類整體利益,這已經(jīng)非常復(fù)雜了,也許還超出了大多數(shù)人的能力。
第一定律——“機器人不可以傷害某一個人,也不可以在那個人遭遇危險時袖手旁觀,除非這與機器人第零定律相沖突。”這條定律也可以稱為“安全定律”。制造出傷害人的物品根本就是非法的,更不用說是不恰當?shù)牧?。因此,現(xiàn)在所有機器都擁有多重安全保護裝置,將造成傷害的可能性降至最低。安全定律保證機器人和普通機器被安裝上多重安全裝置,以防止它們的行為會傷害到人類。工業(yè)機器人和家用機器人都裝有接近和碰撞感應(yīng)器。即便是簡單的機器,例如電梯和車庫門,都裝有防止它們夾到人的感應(yīng)器?,F(xiàn)在的機器人都會設(shè)法避免撞到人或其他物體。割草機和吸塵機器人都有感應(yīng)裝置,當它們在撞到東西或者靠近某高處的邊緣(例如樓梯)時會停下或退后。工業(yè)機器人通常會被圍欄隔開,當它們工作時,人們不可以靠近。有些機器人裝有人類探測器,當探測到附近有人時,它們會停下來。家用機器人裝有很多機械裝置,以便將傷害的風(fēng)險降到最低。不過,在這種情況下,大多數(shù)機器人都會電量不足,即使它們想傷害別人也無法做到。此外,律師都會小心防范潛在的危險。一家公司出售的家用機器人可以給小孩子讀書,同時還會看家,它會在家里到處查看,遇到意外狀況時會拍下照片并通知主人,如果有必要的話,還會給主人發(fā)郵件(當然,是通過它的無線網(wǎng)絡(luò)連接,將照片附在信息上)。盡管機器人具有這些預(yù)設(shè)用途,但是對機器人的使用也有嚴格的規(guī)定,既不能讓它靠近小孩子,也不能將它單獨留在家里。
為了實現(xiàn)第一定律中的安全措施,人們已經(jīng)投入了巨大努力。我們認為,有關(guān)這方面的大部分工作都被應(yīng)用在本能層次,當有關(guān)操作違反了安全定律時,就會用很簡單的機械裝置來關(guān)閉這個系統(tǒng)。
該定律的第二部分——不可以在那個人遭遇危險時袖手旁觀——非常難執(zhí)行。如果難以確定機器人的行為會如何影響人類,那么要判斷袖手旁觀會如何影響到人類,就更加困難了。這屬于反思層次的行為,因為機器人必須進行大量的分析和計劃,從而確定袖手旁觀是否會帶來傷害。這超出了現(xiàn)有大多數(shù)機器人的能力范圍。
盡管遇到這些困難,但是仍然有一些簡單的解決方案。許多電腦都插上了“不間斷電源”,以避免在電力中斷時丟失數(shù)據(jù)。如果電力中斷,而且不采取任何措施,就會造成損失。但在上述情況下,當電力中斷了,電源供應(yīng)設(shè)備就會采取措施,切換到電池,把電池的電壓轉(zhuǎn)換為電腦要求的水平。它也可以設(shè)定為向使用者發(fā)出通知,讓其可以從容不迫地關(guān)機。其他的安全系統(tǒng)則被設(shè)計為,當正常進程失效時,它就會采取措施。有些汽車安裝了內(nèi)置感應(yīng)器,以便監(jiān)視汽車行駛路線,通過調(diào)整引擎動力和剎車來確保汽車保持既定的行駛路線。我們嘗試用自動速度控制器來保持汽車與前車的安全距離,而車道變更探測器也在研究當中。如果當不采取任何行動會引起事故時,這些設(shè)備就可以保障汽車和乘客的安全。
現(xiàn)在,盡管這些裝置都還很簡單,而且都是內(nèi)置式的,但我們?nèi)匀豢梢钥吹接嘘P(guān)第一定律的不作為條款的初步解決方案。
第二定律——“機器人必須服從人類的命令,除非這些命令違反了第零定律或第一定律。”這一條定律與服從人類有關(guān),并且與第一定律形成對比,后者則是與保護人類有關(guān)。從很多方面來說,執(zhí)行這條定律非常容易,不過又都是為了最基本的理由?,F(xiàn)在的機器沒有獨立的思想,所以它們必須服從命令:它們別無選擇,只能遵守人類發(fā)出的命令。如果它們失敗了,將會面臨最嚴厲的懲罰:它們會被關(guān)機,然后被送到維修廠。
機器可以為了保護第一定律而違反第二定律嗎?可以,但是靈活性不高。當你指令一臺電梯把你送到你想要去的樓層,如果它感應(yīng)到有人或物體擋住了門,它就會拒絕執(zhí)行命令。不過,這就是執(zhí)行這條定律最簡單的方式,當情況更復(fù)雜時,它可能會失效。實際上,當安全系統(tǒng)阻止機器執(zhí)行命令時,人們通常都可以越過安全系統(tǒng)而允許機器繼續(xù)運行。這是許多火車、汽車、飛機和工廠事故發(fā)生的原因。也許阿西莫夫是對的,我們應(yīng)該讓機器去決定某些事情。
某些自動配置安全系統(tǒng)是“袖手旁觀”這一條款的例子。如果駕車者迅速剎車,但是沒有完全踩下剎車踏板,大多數(shù)汽車就不會完全降速。然而,奔馳汽車考慮到了這種“袖手旁觀造成的傷害”,當它探測到一個快速的剎車動作,就會將剎車踏板壓到底,自動設(shè)定駕駛者想盡快停車。這是第一定律和第二定律聯(lián)合產(chǎn)生的結(jié)果:對于第一定律,汽車防止給駕駛者造成傷害,而對于第二定律,汽車違反了駕駛者把剎車踏板踩到一半的“命令”。當然,這也許不是真的違反命令:機器人推測駕駛者打算把剎車踩到底,即使它沒有收到這樣的命令。也許機器人引用了新的規(guī)則:“按照我的意思去做,而不是按照我說的話去做 [2] 。”這是早期人工智能電腦系統(tǒng)采用的一個舊概念。
盡管汽車的自動剎車功能執(zhí)行了第二定律的部分規(guī)定,但是正確的執(zhí)行方法應(yīng)該是讓汽車先檢查前方的路況,然后自己決定應(yīng)該如何把握速度快慢、剎車強度或是方向盤角度。只有這樣做,我們才算真正徹底地執(zhí)行了第一和第二定律。我再次向各位讀者聲明,這一切都正在開始實現(xiàn)。例如,有些汽車在太靠近前面的車輛時,即使駕駛者沒有采取措施減速,它們也會自動降低速度。
我們暫時還沒有遇到相互沖突的命令,但是我們很快就會擁有互動機器人,那時,機器人的要求可能會與人類管理者的要求相互沖突。那樣的話,確定事情的先后次序和優(yōu)先權(quán)就變得很重要了。
這些都是比較簡單的例子,在阿西莫夫的設(shè)想中,還有汽車拒絕啟動的情況——“對不起,因為今天晚上的路況太危險了。”我們還沒達到這樣的境界,但是,我們將會達到。到了那時,阿西莫夫的第二定律就會很有用了。
阿西莫夫認為,在所有定律中,自我保護是最不重要的一條——“機器人在不違反第零、第一、第二定律的情況下,必須保護自身安全。”——所以它被列為第三定律,是四大定律中的最后一條。當然,由于現(xiàn)在機器的性能仍然很有限,很少需要應(yīng)用第一和第二定律,因此,在當今社會中,第三定律反而顯得最重要。想想看,如果我們價值不菲的機器人被弄壞或者燒壞了自己,我們肯定會懊惱不已。因而,我們可以很容易地在現(xiàn)代機器中看到這條定律如何發(fā)揮作用。還記得安裝在吸塵機器人里面,以防止它們從樓梯跌落的感應(yīng)器嗎?還有割草機器人裝有撞擊和障礙探測器,以避免被撞壞。另外,許多機器人都會監(jiān)控自己的能量狀態(tài),在能量水平下降時,會確定進入“睡眠”模式還是回到充電站點。到目前為止,我們還不能很好地解決這一定律與其他定律之間的矛盾,除非有操作人員在場,由他們判斷在什么情況下可以忽略安全因素。
我們目前還不能徹底執(zhí)行阿西莫夫的四大定律,除非機器具備強大而有效的反思能力,包括元知識(meta-knowledge,對自身知識的認識)和對自身狀態(tài)、行為和意圖的自我意識。這就向人類提出了關(guān)于哲學(xué)和科學(xué)的難題,同時還向工程師和程序員提出了復(fù)雜的執(zhí)行問題。這個領(lǐng)域正在不斷發(fā)展之中,不過進展緩慢。
即便是當今相對簡單的設(shè)備,要是能擁有一些這樣的能力,也是非常有用的。因此,當發(fā)生矛盾時,忽略操作員的命令就是一個明智的決定。飛機的自動控制系統(tǒng)會監(jiān)控前方的情況,以便確定飛行路線上的潛在情況,如果察覺到即將發(fā)生危險,就會改變航道。有些飛機真的嘗試過在自動控制狀態(tài)下飛進崇山峻嶺中,因此,如果飛機具備上述能力,就能挽救無數(shù)的生命。事實上,許多自動系統(tǒng)已經(jīng)開始進行這種檢查工作了。
此外,即使是現(xiàn)在的玩具機器人,也具有一些自我意識。我們來看看這種機器人,它既由自己與主人玩耍的“意愿”控制,同時還會確保自己不會消耗完所有電量。當處于低電量狀態(tài)時,它就會回到充電站點,即使人們還想繼續(xù)跟它玩。
在我們執(zhí)行類似于阿西莫夫四大定律的規(guī)則時,最大的障礙就是他關(guān)于自動操作和中央控制機制的基本假設(shè)可能無法應(yīng)用于現(xiàn)在的系統(tǒng)。
阿西莫夫的機器人像個體一樣工作,只要給它分配一項任務(wù),它就會去做。在少數(shù)情況下,他也會讓機器人以團隊方式工作,由其中一個機器人擔(dān)任管理者。此外,他從來不會讓人類和機器人組成工作團隊。然而,我們卻更想制造具有合作性的機器人,在這樣的體系下,人類和機器人或者機器人團隊可以一起工作,就像一群合力完成一項任務(wù)的工人一樣。合作行為要求一套不同于阿西莫夫的假設(shè),因此,具有合作性的機器人需要這樣一套規(guī)則,讓它們可以充分交流各自的意圖、當前狀態(tài)和進展情況。
然而,阿西莫夫的主要錯誤 [3] 在于,他認為機器必須由人進行控制。他在寫小說時,經(jīng)常假設(shè)智能機器需要中央?yún)f(xié)調(diào)和控制機制,而且在這個機制下還設(shè)有等級組織架構(gòu)。這是數(shù)千年來軍隊的組織方式:軍隊、政府、企業(yè)和其他機構(gòu)。人們很自然地就會設(shè)想所有智能系統(tǒng)都采用相同的組織原理。但是,這并不是大自然的組織方式。自然界里各種各樣的系統(tǒng)——從螞蟻和蜜蜂的行為,到鳥類的集結(jié)成群,甚至是城市的發(fā)展和股票市場的架構(gòu)——都是通過多個團體互動而產(chǎn)生的自然結(jié)果,而不是由某些中央?yún)f(xié)調(diào)的控制架構(gòu)產(chǎn)生。現(xiàn)代控制理論也已經(jīng)脫離了這種中央集權(quán)式的假設(shè),分散式控制才是現(xiàn)代系統(tǒng)的標志。阿西莫夫假設(shè)每個機器人均由一個中央決策組織控制,根據(jù)他的四大定律指導(dǎo)它如何行動。但實際上,這可能并不是機器人工作的方式:四大定律是機器人結(jié)構(gòu)的一部分,分布在它的機械裝置的各個模塊中,而這些模塊會進行互動,從而產(chǎn)生遵循四大定律的行為。這就是現(xiàn)代概念,阿西莫夫在寫作時還不理解這個概念,因此也難怪他沒有達到我們今天對復(fù)雜系統(tǒng)的理解水平。
盡管這樣,阿西莫夫仍然領(lǐng)先于他所身處的年代,具有劃時代的前瞻性。他的小說寫于20世紀40年代到50年代,但是在小說《機械公敵》(I,Robot )中,他引用了虛擬2058年出版的《機器人技術(shù)手冊》中的機器人三大定律。因此,他預(yù)測了超過100年之后的事情。到2058年,我們可能真的需要他的定律。除此之外,正如上述分析所指出的那樣,這些定律真的很重要,現(xiàn)在很多系統(tǒng)都在不經(jīng)意間遵循著這些定律。執(zhí)行這些定律的困難之處在于,如何處理由于不作為而造成的傷害,以及如何判斷應(yīng)該服從命令還是避免自己、他人受傷。
隨著機器變得越來越能干,替代了越來越多的人類活動,并且能夠自動運作而不需要人類直接監(jiān)管,它們也將面對法律問題。在發(fā)生意外時,將由法律制度來確定孰是孰非。在出現(xiàn)這種情況之前,先設(shè)立一些道德規(guī)范是很有益處的?,F(xiàn)在已經(jīng)有一些適用于機器人的安全守則 [4] ,不過這些都是很基本的,我們需要制定更多的規(guī)定。
現(xiàn)在開始思考未來智能化和情感化的機器將會給我們帶來的問題并不算太早,我們要考慮許多關(guān)于實踐、道德、法律和倫理的問題。盡管很多問題都是將來才會遇到,但是我們也有充分的理由從現(xiàn)在開始做打算——如此一來,當問題發(fā)生時,我們已經(jīng)做好了準備。