機器能否產生意識?

2004 年的電影「機械公敵(I, Robot)」是一部以人工智慧為主題的科幻片。在 2035 年的世界,許多工作已由機器人代替人類完成。機器人像傭人一樣,聽命於人類主人,並遵守機器人三定律:第一,不能傷害人類,也不能因為不作為導致人類受傷;第二,不管人類命令他們做什麼都得做,除非抵觸第一定律;第三,他們必須保護自己,但不得抵觸第一、二定律。

這樣的世界原本很美好,不料發生一椿命案,線索將兇嫌指向一具叫 Sonny 的機器人。於是,Will Smith 飾演警探 Spooner 展開調查,並在過程中逐步發現真相……

電影中,Sonny 有自己的意識,和其他的機器人不一樣。許多電影都有類似的情節:人造的系統能夠產生有意識的心靈。例如,「2001 太空漫遊(2001: A Space Odyssey)」太空船上的電腦 HAL-9000,「魔鬼終結者(Terminator)」中的人工智慧國防系統 Skynet,以及「變人(Bicentennial Man)」中的機器人 Andrew。

機器不僅能夠展現出有智慧的行為,更能產生真實的、有意識的心靈,這是「強人工智慧(strong AI)」的假定。相對地,「弱人工智慧(weak AI)」則只假定人造的系統能夠表現得好像有智慧的樣子,不能產生意識。目前的人工智慧,頂多符合弱人工智慧的假定。

有沒有可能有一天,當人造系統足夠複雜的時候,能夠跟人一樣產生意識?這是個非常吸引人的假定,但我們不確定是否是正確的。這是一個和人工智慧、心理學、神經科學與哲學都有關係的問題,但以目前科學的進展來看,還無法回答。所以,此時此刻必須從哲學的層面來探索。

「義腦(Brain Prostheses)」實驗

為了回答「機器能否產生意識」的問題,人工智慧研究者 Hans Moravec 設計了一個稱為「義腦(brain prostheses)」的思考實驗(thought experiment)。這個實驗有幾個假定:第一,我們的神經科學已經進展到能夠完全了解大腦中每一個神經元的運作。第二,我們能夠製造人造的神經元,不僅能夠模擬任一真實神經元的運作,更能與真實的神經元連結。第三,我們的顯微手術已經進步到能夠在不干擾大腦整體運作的情況下,將大腦中的任一個神經元以功能完全相同的人造神經元替換。

實驗的程序是,將真實的神經元逐一替換為人造神經元,直到整個大腦全由人造神經元組成。然後,再將人造神經元逐一換回真實的神經元,直到整個大腦還原為實驗前的狀態。請問,在實驗過程中,受試者外顯的行為會不會改變?內在的意識狀態會不會改變?

外顯行為的問題,很容易回答。既然在功能上每一個人造的神經元都和被它換掉的真實神經一模一樣,外顯行為就不會改變。至於受試者的內在意識狀態會不會改變,就比較難回答。

採取功能主義(functionalism)觀點的 Moravec 認為,既然每一個人造神經元與真實神經元的功能都是全等的,在整個實驗過程中,受試者的意識都不會改變。反對「強人工智慧」假定的哲學家 John Searle 則認為意識是一種生物現象、人造系統無法產生。他認為當被換掉的真實神經元愈來愈多時,受試者的外顯行為不會改變,但意識會逐漸消失。

我曾經在課堂上問過一班醫學系的學生,結果大約有一半的學生認為意識不會消失,另一半認為意識會消失。傳統的醫學教育以生物醫學為主,從機械觀來看人的生理功能,又傾向從化約主義(reductionism)的觀點將心理狀態等同於神經狀態、將心理功能等同於神經功能。我原本以為,應該會有比較多的學生同意 Moravec 的看法。不過,還是有相當多的學生認為意識會消失。反應的分歧是件好事,畢竟這是個沒有標準答案的問題。一百六十個人原本就不該只有一種反應。如果對這個問題只有一種反應,那就代表醫學教育出了大問題。

許多神經科學家喜歡的化約主義固然有其吸引人的地方,但也有其限制。心與腦,就像電腦的軟體與硬體。即使軟體是在硬體之上執行的,但兩者仍有相當的獨立性。你不可能只研究硬體就了解軟體,反之亦然。想像今天有一群完全不了解地球文明的外星人來訪,他們發現你桌上的電腦後,就徹底地研究了它的硬體功能。請問,這群外星人有沒有可能因此了解文書處理軟體的功能?

「中文室(Chinese Room)」實驗

之前提到,Searle 不認為人造的系統可以產生意識。他的「中文室(Chinese Room)」思考實驗,就是設計來證明一個系統可以展現出看起來有智慧的行為,但完全不懂自己在做什麼,也不可能有意識。

這個系統是一間大房間,裡面有:一個只懂英語的人,一本用英語寫的中文規則書,一疊寫有中文字的紙,一疊白紙。房間只有一個小窗口,外面的人會送進來一張寫有中文句子的紙條。房間裡的人會根據紙條上的、他看不懂的符號,查閱規則書,並照書中的規則做一些事。例如,規則可能叫他在紙上畫出某個符號,可能叫他找出某個符號,或是叫他排列某些符號,諸如此類。規則執行到最後,裡面的人會寫下一串符號,並透過窗口傳出去。

對外面問問題的人來說,這個房間可以回答他的每個中文問句,看起來是有智慧的。可是,這間房間、房間內的人、規則書、紙張,都完全不懂中文。也就是說,一個完全不懂中文的系統,可以表現得像是懂中文的樣子。據此,Searle 認為,機器無法產生心靈。

這是一個非常有名的思考實驗,論證也非常有吸引力,但也不乏反對的聲音。例如,主修醫學的你或許想要反問:「我的視神經不懂中文、我的皮質神經元不懂中文、我的胼胝體不懂中文。但是,我懂中文、我也有心靈呀!」然而,不論支持或反對,都一樣突顯了「中文室」實驗要問的核心問題:簡單的運作與複雜的心靈之間的關係為何?跟 Searle 一樣認為「中文室」不懂中文的人,必須試著解釋為什麼我們的大腦可以產生有意識的心靈。認為「中文室」懂中文的人,也必須試著解釋,機器在什麼樣的情況下能產生有意識的心靈。這些,都仍然是沒有明確解答的問題。

「桶中之腦(Brain in a Vat)」實驗

讓我們再回到 Moravec 對「義腦」實驗的功能主義觀點。這樣的觀點,雖然是許多心理學家、人工智慧學家與哲學家所喜歡的,但也有其限制。最大的限制,在於它不能解釋意識的主觀性(qualia)。

我們可以用另一個思考實驗,「桶中之腦(brain in a vat)」,來幫助我們分析這個問題。假定我可以把一個人的腦從你的身體中移出來,放在一個超級培養皿中繼續運作與發展。同時我也用一部超級電腦模擬一個虛擬的世界刺激這個大腦,而從你大腦傳出的動作訊號也被電腦用來改變虛擬的世界。

是的,這正是電影「香草天空(Vanilla Sky)」與「駭客任務(Matrix)」的基本假定。不過,電影和「桶中之腦」實驗,還是有些不同。第一,在電影中,身體是被保留的。在「香草天空」中,目的是等待以後更進步的醫學能治療目前無法治療的問題。在「駭客任務」中,目的是把人的身體當作 Matrix 的電源供應器。第二,兩部電影中的電腦都有臭蟲(bugs),所以「香草天空」中的 David 夢境會出問題,所以「駭客任務」中的某些人會察覺到自己並非活在真實的世界。

在「桶中之腦」實驗中,我們暫時不管身體的問題,也假定電腦是沒有臭蟲的。如果一個桶中之腦跟現在你的腦接收到完全一樣的剌激(只不過前者的刺激來自電腦、後者來自真實世界),而兩個腦作出反應後知覺到世界的改變也完全一樣,你覺得你和桶中之腦會不會有完全一樣的主觀經驗?從旁觀者的角度,我們是可以看出兩個腦處於截然不同的環境。但是,兩個腦的主觀經驗,「應該」是一樣的。不過,經驗完全是內在的,我們也只能如此推測。

就以色彩為例,電磁波是沒有顏色的,神經衝動也是沒有顏色的。色彩不存在於外界,完全是內在的意識經驗。你或許可以推論,不同的人看到同樣波長的光線,主觀感覺到的色彩經驗「應該」也一樣。但那只是推論,你永遠不會知道我經驗到的紅色跟你經驗到的紅色是不是完全一樣的。就好像你看到一隻狗在草地上打滾,你覺得牠「應該」很舒服。但那狗究竟感受到怎樣的舒服?你永遠也不會知道。

想像一下以下狀況:假定某甲的神經系統從小就和常人不同。我們的視覺系統能分辨的波長他都能分辨,但他對一般人稱為「紅色」的電磁波的感覺經驗,是一般人對「綠色」的經驗,反之亦然。當他和你走在路上,看到紅燈亮起,他和你一樣看到「紅燈」,也一樣停下腳步。但是,主觀的「紅色」經驗,是完全不一樣的。

結語

機器能否產生有意識的心靈?我們覺得蟑螂可能沒有意識,我們覺得烏賊可能沒有意識,但我們覺得黑猩猩有意識,也覺得人有意識。你的電腦沒有意識,民航機的自動駕駛系統也沒有意識,但是如果有一天我們能製造出運算能力和人腦一樣強大的機器,這樣的機器會不會像「魔鬼終結者」中的 Skynet 一樣產生意識?在一般人的直覺中這是可能的,否則也不會有這麼多基於類似假定的電影。

然而,電影終究只是一種想像,直覺也未必正確。事實是否就是如此?我們並不知道。「機器能否產生有意識的心靈」其實跟著幾個相關的問題:「物質與意識的關係為何?」「心與腦關係為何?」「人腦是不是一種機器?」而這些問題,也都還沒有確切的答案。這些不只是哲學問題,也是人工智慧、心理學與神經科學的問題。

我喜歡跟醫學生談這些問題,因為它們對醫學生是重要的。我們應該在醫學系前兩年的醫預課程及第三、四年的基礎臨床整合課程中,廣泛介紹從生命科學、社會科學到自然科學等不同的科學領域,讓學生有機會檢視自己關於「人是什麼」的種種假定,了解科學的可能性與局限性,並建立跨領域的觀點。如此,醫學生不僅能夠建立對人與科學的全貌觀,更能敏銳察覺自己心中對世界所作的種種假定。我相信,增加基礎科學課程的廣度和深度,比起增開一些不脫刻板印象的所謂「醫學人文」課程,必定會對醫學教育有更實質的貢獻。

參考文獻

Churchland, P. (1988). Matter and consciousness: A contemporary introduction to the philosophy of mind. The MIT Press.

Gazzaniga, M. S., Ivry, R. B., Mangun, G. R. (2002). Cognitive neuroscience: The biology of the mind (2nd. ed.). W. W. Norton & Company.

Russell, S., & Norvig, P. (2002). Artificial intelligence: A modern approach (2nd. ed.). Prentice Hall.