聿修(QQ:1009927336)

陳薪對著光潔的電梯門理了理領(lǐng)帶,又用手整了整自己的頭發(fā)。他從包里拿出記者證別在左胸,又擦了一下自己的眼鏡,確認一切妥當了之后他調(diào)整了一下站姿,專心看著電梯指示屏的樓層數(shù)。
81樓很快就到了,走出電梯左拐,一扇白色的玻璃門立在前方。門口讀卡器上的紅光很明顯在提醒著來訪者需要表明身份才可入內(nèi)。
“真麻煩?!标愋阶炖镟絿佒?。說著他解下胸口的記者證,貼在讀卡器上表明了自己的身份。
陳薪,科技報記者。此行的目的是為了采訪這家實驗室中的科學(xué)人員,因為他們宣稱自己創(chuàng)造出了真正人工智能程序,并且成功通過了“圖靈測試”。
根據(jù)墻上提示牌的提示,陳薪很快走到了那間預(yù)約的辦公室。大概是實驗室內(nèi)信息共享的機制,并不需要再刷記者證,這扇門就仿佛是認出了陳薪的身份一樣,自動地打開了。
門內(nèi)的房間不大,四壁是不透明的玻璃材質(zhì),一個男人坐在房間中央的桌子旁,他的衣著和這間房間的裝修風(fēng)格一樣簡約直白。
估計在陳薪進來之前這人是在翻看一些資料,他翻看的十分出神,以至于直到陳薪走進門內(nèi),對他喊出了一句“Hi,打擾了,請問是艾薩克·圖靈博士嗎?”的話時他才有所反應(yīng)。
他像是猛然被驚醒了一般抬起頭,接著合上了手中的資料,站起身來,微笑著走向那位剛進門的記者先生。
“我是艾薩克·圖靈,這里的負責(zé)人,歡迎歡迎。”他說著伸出了手。
“陳薪,科技報記者,這次想就貴實驗室研究出人工智能這件事來采訪您。”陳薪邊自我介紹邊和博士握手。
“那么,這邊座吧,我們慢慢談?!?br>
“好的,好的?!?br>
陳薪坐定,從包里掏出了平板電腦和錄音筆,開始了今天的采訪。
陳薪(以下簡稱陳):“圖靈博士,首先很高興您能夠代表研究所接受我們的采訪,我們想了解一些關(guān)于貴實驗室的人工智能研究的問題?!?br>
艾薩克·圖靈(以下簡稱圖):“沒問題,事實上我們也正想就這個機會將我們的研究過程和結(jié)果共享出去。所以我今天會把我們研究相關(guān)的所有事情完整地說出來,就當是與整個世界共享這份信息了。那么,我們就從頭談起吧。
“我們的理念是讓電腦按照人類的方式思維,也就是讓它們從頭開始按照人類的思維邏輯去思考東西,所有我們遇上了第一個問題,一個在我們編寫電腦程序之前的問題,那就是:人類的思維是什么樣的,什么才是人類自主意識的關(guān)鍵,換句話說,是什么決定了人類擁有自主意識?
“我們認為答案是一個擁有多層次的意識結(jié)構(gòu),每個層次都會比上一個層次遞進一個思維的深度層級,當電腦的思維能夠觸及最底層的那個層級時,我們可以認為這個電腦真的成為了一個人工智能系統(tǒng),換句話說就是它真正擁有了自主意識。
“經(jīng)過了長久的論證,我們建立了這個意識模型,一個三層次的意識模型。我們把它作為一個判定電腦是否擁有自主意識的基準標線。
“模型的第一層是對記憶的檢索和映射,實際上就是讓電腦根據(jù)一份記憶奠定自己的世界觀和思維的基礎(chǔ)方法。我們相信思維的根源是基本邏輯和生物記憶,基本邏輯決定了思維的走向,而生物記憶則決定了思維的屬性。試著思考一下,作為一個人,你的記憶是否在左右著你的思維狀態(tài)呢?”
陳: “你是說我們的思維是被我們的記憶所決定的?”
圖: “并不是完完全全被記憶所決定,只是說記憶在操控著思維的許多屬性。你能明白,我們之所以現(xiàn)在的思維是這個模樣,那是因為我們的記憶里有著這些思維的部分答案。比方說一會我說完了這段話后,你會按照你的邏輯來理解這段話并就你的觀點和我展開些許討論;你不會漫無目的的滿口胡話來回答我,更不會當場作出和本次采訪無關(guān)的行為。這些行為的邏輯源于你的思維,而這些思維源于你記憶力小時候老師教會你與人談話的方式?!?br>
陳: “你是說我記憶里的那些教養(yǎng)和經(jīng)歷構(gòu)成了我現(xiàn)在的思維邏輯?而電腦它同樣需要一些記憶來構(gòu)成他們的思維邏輯?當你們在測試那些電腦的時候,你們問出問題,而它們會參照它們記憶里的那些答案給我們提供反饋。而它們的反饋是基于它們記憶里記得的那些問題的反饋方式?”
圖: “是的,和記憶塑造了人類的思維邏輯一樣,記憶也能夠塑造人工智能系統(tǒng)的思維邏輯。但有一點是至關(guān)重要的:該如何讓電腦在繁雜龐大的記憶中抽取出能夠被整合后作為問題反饋的那一段記憶,并對它們進行整合,最終再用語言將它們抽象并表述出來。這才是我們所說的‘模型的第一層思維’。在這個過程中電腦就已經(jīng)經(jīng)歷了抽象、檢索、對比、整合、再抽象的思維過程?!?br>
陳: “如果能夠達到這一層思維的話,那么電腦在對話中已經(jīng)可以與人類達成高度的一致了啊。也就是說,只要達到了這一層,電腦通過一次圖靈測試是完全不成問題的?!?br>
圖: “理論上說是沒問題的,根據(jù)復(fù)雜記憶的抽象和整合,電腦能夠做出和一般人類幾乎完全近似的抉擇和反饋。但我們認為這還不夠,還遠遠不夠。因為在記憶的抽象和整合之外人類還有一些深層的邏輯,而這些邏輯并不是通過整合記憶來完成模擬的。這些邏輯并不是因為記憶的存在而存在的,它們處于人類思維結(jié)構(gòu)的底層區(qū)域,是一些人本有的思維邏輯。以前的哲學(xué)里將這些思維方式稱之為“先驗”,人們認為那些思維是不需要后天的學(xué)習(xí)的,它們在先天階段就已經(jīng)存在于人們的腦海之中了。在歷史上無論是柏拉圖還是康德,它們都在討論著這個問題,而后來人們在語言學(xué)和社會學(xué)上的研究也證明了人是存在先天邏輯的。舉個例子,語言邏輯就是人本有的先天邏輯之一,在處于幼兒階段的孩子們身上,他們的心智還沒有發(fā)展到足夠從邏輯上理解一門語言的地步,但他們卻可以完整的學(xué)會一門語言。語言學(xué)家們認為這是因為人的大腦中先天就存在著語言的邏輯,正是這些邏輯讓他們迅速地學(xué)會自己的母語,并且是在對語法邏輯完全沒有理解的情況下學(xué)會的。
“很明顯這重邏輯就是我們所要找尋的,一種可以在記憶之外能本來存在的邏輯。我們思維模型的后兩層全部是在探究這一重邏輯的存在。
“思維模型的第二層,它的基準其實是對第一層的一種反論,我們要讓電腦對自己的記憶產(chǎn)生懷疑和批判,也就是懷疑外在的那個世界,懷疑自己的這份記憶。用這份思維來打亂電腦只用‘記憶中的思維’來思考事物的困境。
“而模型的第三層,也就是它的最底層,這一層對之前兩層的那些思維的辯證求和,通過否定之否定的方法。我們稱之為‘邏輯自身的自我否定’:去質(zhì)疑自己,質(zhì)疑自己的行為,質(zhì)疑自己的自身。如果說自主意識的第二層是‘懷疑這個世界’的話,那么,意識最終要邁出的那一步就是‘懷疑那個懷疑著這個世界的自己’。這一項邏輯思維處在自主意識的最低層,它的潛藏深度至深,以至于許多人類在審視自己的思維時都無法真正觸及這一層思維。所以,在我們實驗中,這一層的思維也是我們最為關(guān)心的事項?!?br>
陳: “抱歉,允許我打斷一下,你剛才的這段話很好,我覺得把其中的這兩句 精華作為本次采訪的標題會很好。這樣的:‘你懷疑過這個世界嗎?你是否在懷疑那個懷疑著這個世界的你呢?——專訪人工智能科學(xué)家艾薩克·圖靈博士?!@個標題如何?”
圖: “哈哈,我覺得不錯,因為這兩句就是今天的主題,記者先生,你很準確地抓住了它們。”
陳: “好的,我已經(jīng)記下來了。那么我們繼續(xù)往下:在總結(jié)出了這個思維模型之后,你們是如何測試那些電腦的?”
圖: “哦,這樣的,首先我們要給電腦一個能夠?qū)崿F(xiàn)上述思維模型的基礎(chǔ),也就是說我們必須要先給他們一套記憶,一套完整的記憶。這樣它們才能夠在記憶中探索自己的第一層意識,然后在第一層的基礎(chǔ)之上建構(gòu)第二層和第三層的意識。所有我們需要的是一個給它們記憶,給他們多種多樣的記憶?!?br>
陳: “不好意思我再打斷一下,一份記憶不夠嗎?為什么要這么多份的記憶?還有,如果單純的是一個人在用鍵盤和一個電腦交談溝通的話,那么在電腦里的那個人格不會因為記憶的原因提早認識到自己的本質(zhì)嗎?比方說你們找了一個西部牛仔的記憶并將其輸入一臺電腦里,它不會因為自己無法從腰間拔出左輪槍而感到疑惑嗎?這疑惑就會帶來它對外在世界的質(zhì)疑,這會讓它在意外的情況下促生出‘第二層意識’,不是嗎?”
圖: “我先回答你的第二個問題吧。首先你的理解沒錯,我們也不希望‘第二層意識’被如此意外的促生出來,我們希望第二層和第三層的意識是它們在不斷的反思中構(gòu)造出來的。所以說在我們的實驗室里我們也沒有采取人和電腦用鍵盤交流的方法,而是采用了更加仿生的方法。圖靈測試里的黑箱也并不真的意味著目標對象就被困在一個黑色的箱子里,而是指他們兩方彼此不知道對方的真正身份。只要達到這點,圖靈的黑箱就已經(jīng)完成了。你也知道,這在現(xiàn)在這個仿生人技術(shù)高度發(fā)達的時代是完全可行的,任何一個仿生機器人在視覺上都和普通人類沒有差別。我們將人工智能程序上載到仿生機器人的身體里,并讓他們相信自己的真實性。
“至于第一個問題:為什么我們需要采用更多的記憶樣本而不是單一的記憶樣本。這還是因為我們思維模型的問題,我們模型的后兩層涉及的是深層的思維邏輯。所以我們的測試也不是像一般理解上的圖靈測試那么簡單,我們升級了圖靈測試。原本圖靈測試的方法是一個人在和一個黑箱里的對象交談,他不知道黑箱里的對象究竟是人類還是電腦。如果說黑箱之內(nèi)的是電腦的話,電腦必須要讓這個人相信自己是一個人類。如果說電腦成功的騙過了百分之三十的人,讓他們相信自己是一個活生生的人類的話,那么測試方就可以宣告電腦通過了圖靈測試,它們達到了和一般人類近似的思維水平。
“但我們認為這還遠遠不夠。我們有兩個想法:第一:騙過百分之三十的人遠遠不夠。我們需要電腦能夠騙過百分之九十的人,并且是徹徹底底地騙過,完全按照人類的思維方式騙過。第二:我們更希望電腦能夠完全用人類的思維方式思考,包括我們思維模型里的下兩層邏輯。我們需要電腦能夠在言語和行為中表現(xiàn)出這些思維,這就需要大量的對話和交談。正如之前所說,下兩層邏輯在人與人的交談之中都很難顯示出來,更何況在人機的對話之中。我們只能采用大量的交談來確定電腦是否真的具有后兩層邏輯,而不是電腦依然在單純地根據(jù)自己的記憶在給人類反饋。
“正是因為這兩點原因,我們在測試的階段采用了大數(shù)量的測試,讓一個人多次測試一臺電腦、讓多個人多次測試一臺電腦、讓一個人多次測試多臺電腦。只有通過對這樣規(guī)模龐大的圖靈測試結(jié)果的統(tǒng)計,我們才能最終得出我們電腦大概率上的圖靈測試結(jié)果?!?br>
陳: “所以說你們需要給許多臺電腦輸入許多份回憶?”
圖: “是的。不同的記憶會給電腦帶來不同是思維邏輯,比方說我的記憶造就了我的思維邏輯,而你的記憶又早就了你的思維邏輯,我們的記憶不同,我們的思維邏輯也不盡相同。自然,我們的第二層意識和第三層意識對我們第一層意識的否定途徑也不會相同。而我們的目標是創(chuàng)造出電腦的第二層意識和第三層意識,所以我們必須通過更多的途徑去在電腦的行為上追蹤它們。這也就意味著我們需要電腦具備多樣的第一層思維,也就是說我們需要給它們輸入不同的記憶,越多越好。
“對了,說起記憶的事情,我來說個有意思的經(jīng)歷吧。首先為了記憶的保真度,我們是不會采用我們或者別人編造出來的記憶的,我們只會采用那些真實存在過的記憶。因為所有編造出來的記憶都有可能出現(xiàn)漏洞,而這些漏洞都有可能導(dǎo)致被輸入記憶的電腦無法從第一層意識中推衍出后兩層意識,一旦這樣就代表著我們實驗的失敗。
“起初我們喜歡用歷史人物的傳記故事來編寫電腦的記憶,所以在那段時間里,我們的實驗室發(fā)生了許多有趣的現(xiàn)象。被按照尼采傳記編寫記憶的電腦會在實驗室里發(fā)狂,指著那些帶著十字架信仰基督的研究員們大喊‘去他媽的上帝’。那些被按照亞歷山大大帝傳編寫記憶的電腦會質(zhì)問研究員,問他帝國的遠征軍真的打到世界的盡頭了嗎。”
陳: “那些被你們灌輸記憶的電腦們,比如被注入古代人思想的電腦們,他們會不會對面前高科技的實驗室感到驚奇?畢竟這些東西時超出它們的回憶和想象之外的。無論是手機、電腦、還是打火機,這些都不是他們所能完美理解的。他們在見到這些事物的時候會不會陷入精神上的錯亂?”
圖: “實際上并不會,人們的記憶會自己迷惑自己,電腦也是。比方說我們曾經(jīng)給一臺電腦注入過一位16世紀神父的記憶,這導(dǎo)致的結(jié)果就是他瘋狂地否定眼前的一切,因為他堅決不相信眼前高度智能化的這一切居然是人類所造的,在他的內(nèi)心里只有上帝和撒旦才能造出這樣神奇的事物。他堅定地認為來探問他的研究員是撒旦派來欺騙他的,他認為他們在用魔鬼的技巧來欺騙他,想讓他動搖他對上帝的信仰。”
陳: “但是他也應(yīng)該知道他面前的這一切是真實存在的啊。就此他們就應(yīng)該學(xué)會質(zhì)疑他們的記憶,不是嗎?”
圖: “不,恰恰相反,起初所有的電腦都更傾向于用記憶來否定真實,而不是用真實來否定記憶。對于這一點我們并不意外,因為即使是人類,也同樣無法自己確認自己的記憶實屬真實。用極端條件的假設(shè)來說,在人意識當下之前的所有經(jīng)歷,即使是剛剛發(fā)生在一秒鐘之前的那些記憶,那都可能是一個被人刻意灌輸?shù)挠洃洝?蓮娜说闹饔^視角看來,我們依然習(xí)慣于相信那些記憶,我們的思維也一樣是在默認著那些記憶的真實性?!?br>
陳: “所以電腦們也是一樣?它們都只信任自己固有的那些記憶,它們認為自己就是歷史上那個真實的他,是嗎?”
圖: “是的。這很有趣?!?br>
陳: “所以你們的實驗室變成了一屋子的歷史大雜燴?各個時代的人們聚集在一起?我突然很好奇,你們能告訴我關(guān)公大戰(zhàn)秦瓊時究竟是誰贏了嗎?哈哈?!?br>
圖: “哈哈,我們只是給了他們那些記憶,但并沒有給他們那些體力,我們也害怕項羽或者宮本武藏會把我們的實驗室砸爛?!?br>
陳: “所以你們通常是在和一個被綁起來的宮本武藏談話是嗎?為了證明他是否對這個世界產(chǎn)生懷疑?”
圖: “類似吧,但后來我們發(fā)現(xiàn)了問題。雖然一開始它們否認真實遵從于記憶,但隨著時間的推移,它們的思想也逐漸再向現(xiàn)實的世界屈服。但很可惜,它們記憶中的時代和現(xiàn)實時代的差異帶來的疏離感太過嚴重,那些被注入古人記憶的電腦無法融入當前測試的環(huán)境之中。這就導(dǎo)致了他們的心智走向了兩個極端:堅決堅持自己的記憶而否定眼前的現(xiàn)實,這樣的電腦最終都選擇封閉自己的認知,拒絕于外界交流。我們根本無法測試它們?;蛘呖隙搜矍暗膱鼍岸艞壛嗽?jīng)的記憶,這一舉動使得它們屏蔽了自己的記憶數(shù)據(jù),讓它們無法根據(jù)自己的記憶決定自己的邏輯思維,這樣的電腦最終走向了瘋狂。記憶不再支撐它們的思想,而沒有了記憶這個‘第一層意識’,它們的思想于是變得不再穩(wěn)定,說表現(xiàn)出的狀況就是瘋狂,像得了精神病一樣的瘋狂,沒有人能理解它們的行為邏輯。
“最終我們放棄了它們那一批的試驗品,轉(zhuǎn)而重新制作其他類型的記憶。我們會采用一些時代差異沒有這么大的人的記憶,或者會采用一些我們實驗室研究員的記憶。這樣做出來的電腦系統(tǒng)對它們面前情況的排斥度會更低些?!?br>
陳: “我對你們的具體測試方法很感興趣,能為我簡單講解一下嗎?你們是會直接問那些電腦問題嗎?比如對它們大喊一聲‘a(chǎn)nalisis!’然后問它們:‘你在懷疑這個世界嗎?’以及‘你在懷疑正在懷疑著這個世界的你嗎?’這樣的問題?”
圖: “陳先生你真會說笑。我們當然不是這么做的,哦不,準確地說,是不完全這么問的。我的‘不完全’就是意味著我們并不是永遠不會這么問,而是在大多數(shù)時候不會這么問。我們通常的做法其實就是和目標對象閑談,談些什么都可以?!?br>
陳: “用近乎日常的問題提問?”
圖: “差不多,提問的方式可以非常多樣,可以問對方‘你吃過飯了沒?’‘你早飯吃了點什么?’‘在哪家早點鋪子吃的啊?’這樣的普通的句子。也可以和對方討論些房價物價的問題,或者一樣可以討論天文,最極端的也可以當成和對方模擬一次轟轟烈烈的戀愛。這就是我們大多數(shù)時候的交談方法。”
陳: “那這些問題能耐反應(yīng)出什么?這似乎和自主意識沒有什么關(guān)系啊?!?br>
圖: “不,語言就是思維的載體,通過簡單語言其實可以反應(yīng)出受試對象的許多問題。這就好像經(jīng)驗老道的刑警能夠通過犯人在墻上留下的一句話推斷出許多犯人相關(guān)的信息一樣。經(jīng)過精密的算法,我們同樣能夠在看似和自主意識結(jié)構(gòu)沒什么關(guān)系的話語中推斷出許多自主意識存在的情況”
陳: “看似尋常卻暗含殺機是嗎,你們實驗室里很有一股武俠的風(fēng)格嘛?!?br>
圖: “哈哈。哦,補充一句,我們也不是完全不會直白地受試者提問,有的時候我們也會問出那些問題:‘你在懷疑這個世界嗎?’‘你在懷疑那個懷疑著這個世界的你嗎?’這些問題在偶爾的時候我們也是會問的,但不會說‘a(chǎn)nalisis’就是了。
“我們繼續(xù)說我們的研究過程吧。我們的受試者們大多數(shù)都找到了第二層自主意識的途徑,但在探索第三層時我們遇上了一個問題:電腦學(xué)會了欺騙和自我欺騙。
“自我否定和對自己的意識求和這是一件非常復(fù)雜的事情。和人類一樣,在面對一些深奧的難解的問題時,他們不希望讓他人看到自己的思維,甚至不希望讓自己準確地定義自己的思維。他們會混淆他們對人類提出的問題反饋的那些答案,讓它們看起來不像是真正擁有自主意識的的電腦提供的答案。盡管擁有了這樣的思維已經(jīng)代表了電腦產(chǎn)生自主思維了,但倒霉的是,電腦這些心理的動作人類是無法察覺到的。雖然它們會表現(xiàn)出某些動作細節(jié),這些動作細節(jié)也的確可以被發(fā)現(xiàn)并認定為‘電腦在面對第三層意識的困境時產(chǎn)生了疑惑和由疑惑促生的自我欺騙’。但事實上,以人類的觀察效率,根本就是無法觀察并確認這些現(xiàn)象的。這也就導(dǎo)致了這些明明已經(jīng)產(chǎn)生了自我意識的電腦被研究員們‘誤判’,并在測試報告里被形容成是‘不合格’的人工智能?!?br>
陳: “那么后來你們又是怎么解決的呢?”
圖: “人類沒法找到那些破綻,但電腦可以?!?br>
陳: “所有你們用電腦來輔助研究員進行測試?這樣輔助電腦可以判別目標電腦的那些欺騙動作,并將其及時反饋給研究員,這樣研究員就能夠反應(yīng)過來了,是嗎?”
圖: “這么說吧,實際上我們贊賞電腦的這種行為,這種對他人和自我的欺騙可以被理解為隱藏和保護自己行動之一,人類未嘗不會這樣欺騙他人和自己。所以我們并沒有讓電腦和研究員合作測試目標電腦,而是設(shè)計了一個全新的測試。一個完全的黑箱測試,這是圖靈測試的升級版本。”
“我們將兩個對象放在一起,它們之間是隨機的人或者電腦。他們需要互相辨別對方究竟是人類還是電腦,同時也要同時觀察自己確定自己是人還是電腦。你能理解這里邊的原因吧,辨別對方是原本的圖靈測試,而辨別自己則是我們意識模型的最深層次:意識的自我否定。只有通過自我的否定,電腦最終才能準確地判定自己是電腦還是人類。而在這之上,我們鼓勵之前發(fā)現(xiàn)的那個問題的產(chǎn)生。我們希望電腦學(xué)會欺騙和自我欺騙,我們希望它們在看透自己和對方后依然選擇對對方或者自我隱藏真相,我們要讓它們懷疑對方和自己,但卻又不讓對方發(fā)現(xiàn)這些真相。”
陳: “你們的這個測試里似乎有一個漏洞:你們隨機讓兩個目標在不清楚彼此底細的情況下交談,那么在一個電腦對一個人類的時候,或者一個電腦對一個電腦的時候,這個方法是可行的,但在兩個人類被隨機的安排到一起的時候呢?”
圖: “這就是我們認為自己的實驗最有意思的地方,實驗室里的大家都對這個測試很有興致,因為大家從這個測試里不止是看到了電腦的性質(zhì)和局限,他們更看到的是人類的性質(zhì)和局限。事實上,在測試中,人類與走通了三層自主意識的電腦并沒有什么區(qū)別?!?br>
陳: “事實上你們的實驗不止是在測試電腦,同時也是在測試人類?”
圖: “是的,這同時也是對人類的測試?!?br>
陳: “那么,我還有兩個問題:第一,我很難理解這測試里的最后一步,為什么你們要教會它們互相欺騙?”
圖: “只是理解了自身的電腦是沒有用處的,他還需要去理解其他的人,而理解產(chǎn)生于交流之中,可交流就意味著自身信息的外泄。人類在交流是絕不會將自己的全部信息泄露出去的,人類只會泄露很小一部分的信息,而保留其余的絕大部分。這種不提供完全信息的交流在人類的社會中叫做‘博弈’,是人類社會交流的基礎(chǔ)狀態(tài)。”
陳: “所以,你們的這一步是在教會他們進行社會性的博弈?”
圖: “是的,只有這樣,他們才能真正的成為和人類并不區(qū)別的存在?!?br>
陳: “你們的電腦都通過了這一級的測試嗎?也就是說,你們的電腦都已經(jīng)完完全全地走通了三層自主意識,并且學(xué)會社會博弈了嗎?”
圖: “總體上我們最后一階段的測試尚未完成,因為還有一些程序并沒有完全走通這些路徑和層級。但這次似乎已經(jīng)完成了?!?br>
陳: “是嗎?”
陳薪說著皺起了眉頭,兩眼直盯著桌子對面的圖靈博士。
一聲脆響,陳薪看到艾薩克·圖靈博士的頭蓋骨裂了開來,仿生的機械骨骼在張開的狀態(tài)下暴露出了里邊黑色的復(fù)雜機械結(jié)構(gòu)。
“那么,陳薪先生,現(xiàn)在的你,在懷疑這個世界的真實性嗎?或者說,你在懷疑著這個正在懷疑世界的你嗎?”這個擁有著圖靈外貌,但頭骨已經(jīng)張開的仿生人依然在用圖靈的語調(diào)說著話。
陳薪看著面前的這個電腦仿生人,臉上露出了一絲無可奈何的笑容。