正文

智能簡史 導(dǎo)言(7)

智能簡史:誰會代替人類成為主導(dǎo)物種 作者:(美)雨果·德·加里斯


我希望你理解這個類比。如果我們制造人工智能機器導(dǎo)致人類最終被滅絕,擁有神一樣智慧的機器人會創(chuàng)造出怎樣的、類似貝多芬第九交響曲一樣的奇跡呢?作為人類,我們太愚蠢了,以至于想象不出。我們是如此的低等以至于沒有能力去鑒賞這些。就像讓老鼠來研究愛因斯坦廣義相對論一樣,人類根本就不可能去理解,因為我們根本就不具備理解這些所必需的神經(jīng)電路。

但是你會問,如果我內(nèi)心里是一個宇宙主義者,那我為什么寫這本書呢?答案是,我不是100%的宇宙主義者。如果我是個純粹的宇宙主義者,那么我將會安安靜靜地從事我的人工大腦制造研究,而不會去向公眾敲響人工智能問題的警鐘。當(dāng)我臨終之時,我會為我被認為是“人工大腦之父”而自豪,但是如果歷史譴責(zé)我是“大規(guī)模死亡之父”的話,那么這個前景真的讓我很害怕。我第二任妻子的母親仍然對奧斯維辛集中營的納粹生活非常后怕。我清楚大屠殺給人類情感上帶來的陰影是會伴隨人一輩子的。

我寫本書的目的是給出一個警告,我認為在宇宙主義者的工作發(fā)展到一定程度前,應(yīng)該給予人類機會去選擇停止他們的工作,如果那是大多數(shù)人的選擇。我應(yīng)該停止我的人工大腦研制工作嗎?答案是否定的。我認為制造近于人類程度的人工智能機器是非常困難的事情,需要幾十年的時間去解決。在未來30~40年內(nèi),機器人的人工智能將發(fā)展得足夠高,而變得對人類非常有用。機器人將負責(zé)大多數(shù)的工作,它們會從事很多枯燥、骯臟和危險的工作。人類將會從這些工作中解脫出來,轉(zhuǎn)而去從事更有回報的工作,去做更有趣的事情。

現(xiàn)在停止人工大腦的研究是很不明智的。然而,當(dāng)人工大腦真正開始變得聰明起來,并且非常迅速地變得非常聰明以至于(在處于一個“拐點”的時候)成為威脅時,人類就應(yīng)該準備決定是否繼續(xù)。在這個關(guān)系到整個人類生存與否的問題上做出正確的決定是非常重要的,而對人工智能問題的必要討論則應(yīng)該越早越好。在人工智能時代來臨之前,應(yīng)該有足夠的時間去理解這個問題的復(fù)雜程度。

在公開場合,我是地球主義者,我在試著警告大家。私底下,我又是一個宇宙主義者。就像我在本書中提到的,這個問題困擾著我,讓我左右為難。當(dāng)人工智能的辯論真正開始后,數(shù)十億人將會和我有同樣的感受。從地球主義者的視角看,作為一個宇宙主義者就像一個“種族怪物”一樣(物種殺手),他會接受人類將被消滅的風(fēng)險。這是這個形式的固有本質(zhì)。是否要制造這些人工智能機器只有兩個答案—— 制造或者不制造。決定制造它們的同時就是接受它們可能會把我們消滅的風(fēng)險。另一方面,不去制造它們就是決定不去制造“神”,一種弒殺“神”的行為。從宇宙主義者的觀點出發(fā),地球主義者是“弒神怪物”。

之前,有些人認為,通過把人類自己變成人工智能機器,可以化解宇宙主義者和地球主義者之間的沖突。我們可以給人類的頭腦等加一些成分,使他們成為“半機器人”(半機器生命體,比如,一部分是人,一部分是機器)。我個人覺得這樣的看法很幼稚,除非整個人類向人工智能人的轉(zhuǎn)化是一樣的快,然而這顯然是不可能發(fā)生的。

一顆糖粒大小的人工腦潛在的計算能力可能比人類大腦的計算能力要高幾十億倍。對于地球主義者來說,讓這樣的一個顆粒融入人腦而使之成為半機器人,是“偽裝成人類的人工智能機器”。地球主義者會像對待人工智能機器一樣仇恨半機器人,并且會把它們兩者都消滅掉。有一個人類的外表,并不會讓地球主義者覺得半機器人的威脅會減小。

讓我試著用一種更形象的方式來解釋地球主義者對半機器人的憎恨,可能女性會比男性更有體會。舉個例子,一個剛生了孩子的年輕母親,決定把自己的孩子變成半機器人。她只需把“一顆糖?!狈旁诤⒆拥哪X子里,就能把孩子變成人形的人工智能機器?!昂⒆印睂⒅挥腥f億分之一思想是人的思維方式,其余的腦容量(也就是大腦的)都是人工智能機器的思想(無論是什么)。結(jié)果,這個母親“殺死”了她的孩子,因為它再也不是人類了。它只是“偽裝成人類的人工智能機器”,是和她不同的。


上一章目錄下一章

Copyright ? 讀書網(wǎng) leeflamesbasketballcamps.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號