|
|||||||||||
|
|
亨利·基辛格最后的神圣戰(zhàn)爭 | ||
|
||
【美國《時代》周刊網(wǎng)站11月5日報道】題:亨利·基辛格最后的神圣戰(zhàn)爭:阻止危險的人工智能(記者貝琳達(dá)·勒斯科姆) 美國前國務(wù)卿亨利·基辛格在98歲高齡之際,有了全新的興趣點:人工智能。在2016年召開的比爾德貝赫會議期間,時任谷歌公司執(zhí)行董事長埃里克·施密特說服他參加了一場關(guān)于人工智能主題的講座,讓他對此產(chǎn)生了濃厚的興趣。兩人與麻省理工學(xué)院蘇世民計算機(jī)學(xué)院院長丹尼爾·胡滕洛赫爾合作,撰寫了一本令人振奮的新書——《人工智能時代》。書中探討了人工智能迅速崛起并投入使用所帶來的影響,用他們的話說,這“預(yù)示著人類事務(wù)的一場革命”。這本書提出的觀點是,人工智能的進(jìn)程如此勢不可擋,如此天衣無縫地嵌入人類事務(wù),而且如此不可預(yù)知,如果沒有一定的深謀遠(yuǎn)慮與妥善管理,它們將帶來的“劃時代轉(zhuǎn)型”可能讓人類歷史走向危險的方向。 基辛格與施密特一同坐下來接受了《時代》周刊記者的采訪,講述了他們所展望的未來。 技術(shù)缺乏哲學(xué)引導(dǎo) 問:基辛格博士,您是一位資歷深厚的政治家。您為什么認(rèn)為人工智能對您來說是一個足夠重要的主題? 基辛格:我在讀大學(xué)本科時,寫了一篇300頁的論文,題為《歷史的意義》。歷史的意義和我們向何處去的主題一直占據(jù)著我的生活。技術(shù)奇跡并沒有讓我如此著迷;真正讓我著迷的是,我們正在進(jìn)入人類意識的新時期。對此,我們理解得還不夠透徹。 說到人類意識的新時期,我們指的是,對世界的認(rèn)知會有不同,至少像啟蒙運動時期與中世紀(jì)之間的不同那么明顯,當(dāng)時西方世界在從宗教角度認(rèn)知世界轉(zhuǎn)向基于理性認(rèn)知世界,這個進(jìn)程是非常緩慢的。這次,轉(zhuǎn)變的速度會快一些。 其中有一個重要的不同。啟蒙運動時期,存在一個基于信仰的概念世界。因此,伽利略和已故的啟蒙運動先驅(qū)們擁有一套當(dāng)時盛行的哲學(xué),他們要在這種背景下檢驗自己的思想。你可以追蹤這種思想的發(fā)展演變。事實上,我們?nèi)缃裆畹氖澜鐩]有哲學(xué),也沒有占主導(dǎo)的哲學(xué)觀。因此,技術(shù)專家可以為所欲為。他們可以研發(fā)改變世界的東西,但沒有人會說,“我們要把它融入某個東西當(dāng)中”。 問:您遇到埃里克·施密特后,他邀請您對谷歌員工發(fā)表講話,您說您認(rèn)為谷歌是對文明的威脅。您為什么會這樣想? 基辛格:我不希望哪一個組織壟斷信息的供應(yīng)。我認(rèn)為,一家公司能夠提供信息,并且能夠根據(jù)它對公眾想要什么信息或認(rèn)為什么樣的信息可信所做的研究來調(diào)整它所供應(yīng)的信息,這是極其危險的。這樣一來,真相變成相對而言的概念。我當(dāng)時就是這樣認(rèn)為的。而他之所以邀請我與他的算法團(tuán)隊見面,是為了讓我明白,這并非專斷之舉,在為呈現(xiàn)哪些內(nèi)容所做的選擇背后,有思考和分析。這并沒有打消我對一個私人機(jī)構(gòu)擁有這種權(quán)力的擔(dān)憂。不過,我正是這樣進(jìn)入這一領(lǐng)域的。 施密特:參觀谷歌的這次經(jīng)歷讓他思考。等我們開始談?wù)撨@件事時,基辛格博士說,他非常擔(dān)心這批技術(shù)給人類及其生存帶來的影響,而技術(shù)專家在運用這些技術(shù)時卻沒有弄明白它們的影響或歷史。我認(rèn)為,這樣的擔(dān)心是完全正確的。 問:許多人覺得您現(xiàn)在或者過去針對技術(shù)公司所做的事情——讓人感覺它們并不是真的值得信任,它們?yōu)榱烁纳谱陨斫?jīng)營而采取的許多做法對社會來說未必是好事?紤]到這一點,您認(rèn)為技術(shù)行業(yè)領(lǐng)袖在這個新體系中扮演什么角色? 基辛格:我認(rèn)為,技術(shù)公司引領(lǐng)大家進(jìn)入了人類意識的新時期,就像啟蒙運動時期的幾代人在從宗教轉(zhuǎn)向理性時所發(fā)揮的作用,而技術(shù)專家正在向我們展示如何將理性與人工智能關(guān)聯(lián)起來。這在某種意義上是一門不同的學(xué)問,因為說到理性,也就是我成長的環(huán)境,證據(jù)是相互印證的。說到人工智能,最令人震驚的地方在于,你得出了一個正確結(jié)論,可是你不知道其中的原因。這是一個全新的挑戰(zhàn)。因此,從某些方面講,他們創(chuàng)造的東西是危險的。但它讓我們的文化向前邁進(jìn)。如果從來沒有創(chuàng)造出這種技術(shù),我們會不會過得更好?我不知道答案。不過既然它已經(jīng)存在,我們就必須了解它。而且也不能將它根除。我們已經(jīng)在這上面消耗太多的精力。 人類失去思考能力 問:您認(rèn)為人工智能興起所帶來的主要地緣政治影響是什么? 基辛格:我認(rèn)為我們還沒有深入研究過這個問題。想象一下,中美之間爆發(fā)戰(zhàn)爭,你擁有人工智能武器。和所有人工智能技術(shù)一樣,這種武器對你計劃好的目標(biāo)能夠?qū)嵤└行У拇驌簟5鼈兇驌糇约核J(rèn)定的目標(biāo)時可能也很有效。因此,如果你說,“A目標(biāo)是我要打擊的目標(biāo)”,它們可能會認(rèn)為別的什么目標(biāo)更符合這樣的標(biāo)準(zhǔn)。因此,你身處一個有點不確定的世界。其次,因為從來沒有人真正在大規(guī)模軍事行動中測試過這些東西,你無法確切地知道雙方的人工智能戰(zhàn)斗機(jī)發(fā)生互動時會出現(xiàn)什么情形。這樣一來,你所處的世界可能具有徹底的毀滅性,你的做法也存在極大的不確定性。 問:所以您擔(dān)心的是人工智能過于有效嗎?還有我們不能確切知道它們的行為的原因? 基辛格:我這一生大部分時間在研究我所談?wù)摰哪切﹩栴};在人工智能這個領(lǐng)域,我只研究了四年!吧疃人伎肌庇嬎銠C(jī)通過和自己對弈,只用四個小時就學(xué)會了下棋。它還下了一盤人類從未見過的棋局。我們目前最好的計算機(jī)也只是偶爾能打敗它。如果這種情況發(fā)生在其他領(lǐng)域,而這是一種必然,同時也是現(xiàn)實,那可是一件大事,而我們的世界根本沒有為此做好準(zhǔn)備。 問:這本書提出,由于人工智能進(jìn)程的推進(jìn)速度極快,有人擔(dān)心人類有可能失去思考、構(gòu)思和反思的能力。怎么來看待這種擔(dān)憂? 施密特:我們已經(jīng)從讀書轉(zhuǎn)變成聽書,再到既沒時間看,也沒時聞思考、沒時間討論的地步,因為別的東西正應(yīng)運而生。因此,我認(rèn)為這種時間和信息的加速的確超出了人類的能力。這是勢不可擋的,大家在抱怨這一點;他們沉迷其中,他們無法思考,連獨自吃飯都做不到了。我認(rèn)為人類不是生來就可以應(yīng)對這樣的局面。這讓壓力激素水平之類的東西激增。所以,在極端情況下,信息過載很可能超越我們處理正在發(fā)生的種種事情的能力。 我一直談到,在這本書中也提到的一點是,你會需要一名助手。就你而言,你是一名記者,有一大堆事情要做,你會需要一臺計算機(jī)助手,它會對你說:“這些是當(dāng)下要做的重要事項。這些是需要思考的問題,搜索一下歷史記錄,會讓你更加高效。”現(xiàn)在的問題是,你已經(jīng)非常依賴這種人工智能系統(tǒng)。我們在書中也說了,誰來控制人工智能系統(tǒng)的所作所為?它有偏見怎么辦?如何對出現(xiàn)的情況加以調(diào)控?尤其是對年輕人而言,這是個非常令人擔(dān)心的地方。 假如武器自動發(fā)射 問:您在書中談到的一點是,人工智能有好的一面和壞的一面。這要表達(dá)什么意思? 基辛格:我們要說的是,它可能確實會帶來非常大的收益。它可能也是可以管控的。但在對某些方面加以管理上,還存在我們尚未開展研究或者研究得不夠透徹的地方。我仍然感到擔(dān)憂。我反對因為這個原因就說我們必須除掉這種技術(shù)。它現(xiàn)在已經(jīng)存在了。重點之一是,我們認(rèn)為應(yīng)該創(chuàng)造某種哲學(xué)來引導(dǎo)這方面的研究。 問:您會建議由誰來形成這種哲學(xué)?下一步要做什么? 基辛格:我們需要由一些規(guī)模不大的團(tuán)體來提出問題。我在讀研究生時,核武器是新生事物。當(dāng)時,哈佛大學(xué)、麻省理工學(xué)院和加州理工學(xué)院一些憂心忡忡的教授會在很多個周六下午碰頭,表達(dá)自己心中的疑問:答案是什么?我們該如何應(yīng)對?最后他們有了軍備控制的想法。 問:這些團(tuán)體需不需要在規(guī)模上做到國際化?需不需要在聯(lián)合國的支持下做這項工作,還是在其他什么人的支持下? 施密特:這些事情通常的運作方式是,有規(guī)模相對較小、相對精英的群體一直在思考這個問題,他們需要實現(xiàn)對接。比如,目前有牛津大學(xué)的人工智能與倫理策略團(tuán)隊,這是很好的嘗試。世界各地零星存在這類小規(guī)模團(tuán)體。我了解到中國也有一定數(shù)量的此類團(tuán)體。但這些團(tuán)體沒有實現(xiàn)對接;這只是個開始。所以,如果你相信我們所相信的東西,也就是說十年后,人工智能技術(shù)會變得異常強(qiáng)大,那么我們最好從現(xiàn)在就開始考慮這種技術(shù)所帶來的影響。 我給你舉個我最喜歡的例子,與軍事準(zhǔn)則有關(guān)。一切都變得更快了。我們不希望看到的局面是,武器會基于它們自己對局勢的分析而自動發(fā)射。 基辛格:因為實施攻擊的武器可能比人腦的分析速度更快,于是出現(xiàn)了惡性循環(huán)。你很想讓武器變得自動,但你又不想讓它過于自動,自動到可以根據(jù)你或許無法做出的判斷來采取行動。 施密特:所以,當(dāng)前各個大國之間沒有就這一點展開討論。不過,這是顯而易見的問題。我們圍繞人類速度可及的事物展開了大量討論。可是,當(dāng)一切發(fā)生得太快,超出了人類的速度時,該怎么辦?我們需要就某種上限,相互的設(shè)限達(dá)成一致,需要就這些系統(tǒng)的最高運行速度達(dá)成一致,因為不這樣的話,我們會陷入極其不穩(wěn)定的局面。 避免技術(shù)遭到濫用 問:可以想見人們會覺得很難接受您會有這樣的觀點。因為谷歌之所以這么成功,就是因為它能夠提供那么多信息,而且速度那么快。許多人會說,你們其實對這個問題的出現(xiàn)起了推波助瀾的作用。 施密特:是的,我感到內(nèi)疚。我們建立了非常非常快的平臺。有時它們的速度超出了人類能夠理解的范疇。這是問題所在。 問:我們有過領(lǐng)先技術(shù)一步的時候嗎?我們不是向來都在新技術(shù)到來后才有反應(yīng)嗎?誠然,我們不理解正在發(fā)生的事情。可是人們當(dāng)初也不理解為什么打開開關(guān),燈會亮起來。出于同樣的道理,許多人并不擔(dān)心人工智能的到來。 施密特:我非常擔(dān)心所有這些技術(shù)遭到濫用。我當(dāng)初沒有料到政府會利用互聯(lián)網(wǎng)來干預(yù)選舉。我從未想過會有這種事。我錯了。我沒想到互聯(lián)網(wǎng)會如此糟糕地被用來推動反疫苗運動。我沒有及時行動。我們下一次不會錯過。我們會事先有所動作。 基辛格:如果你提前知道會是這種情況,你會怎么做? 施密特:我不知道。我本來可以采取不同的做法。如果我十年前就知道,我本來可以打造不同的產(chǎn)品。我可以用不同的方式游說。我可以用不同的方式發(fā)表演講。我可以在事情發(fā)生之前給人們敲響警鐘。 本文摘自于參考消息 |
收藏本頁 打印本頁 關(guān)閉本頁 |
|