![]() |
Google的DeepMind與韓國(guó)圍棋手李世石對(duì)弈。圖片來(lái)源:美聯(lián)社? |
中國(guó)日?qǐng)?bào)網(wǎng)4月1日電 據(jù)英國(guó)《衛(wèi)報(bào)》報(bào)道,想要進(jìn)入“奇點(diǎn)時(shí)代”——計(jì)算機(jī)擁有的智慧與人類(lèi)相當(dāng)?shù)臅r(shí)代——像谷歌DeepMind創(chuàng)造的只擁有一技之長(zhǎng)的超級(jí)人工智能必須能做各種事情。
創(chuàng)造達(dá)到人類(lèi)智慧水平的人工智能(AI),這條漫長(zhǎng)的道路充滿(mǎn)了諸多不確定性。如今,大多數(shù)的人工智能只擅長(zhǎng)一個(gè)領(lǐng)域。這些人工智能能夠識(shí)別人臉、聲音,翻譯外語(yǔ),進(jìn)行股票交易以及下象棋。它們很可能對(duì)這一種技能了如指掌,但卻只擅長(zhǎng)這一種。谷歌公司旗下DeepMind的項(xiàng)AlphaGo,可以在圍棋上打敗最厲害的圍棋選手,但是它并不知道怎么玩挑圓片游戲(tiddlywinks),推幣游戲,或者區(qū)別一匹馬的頭和尾。
另一方面,人類(lèi)不是專(zhuān)家。我們都是多才多藝的。還有什么動(dòng)物能夠像人類(lèi)一樣可以廣泛涉獵各個(gè)領(lǐng)域?假設(shè)人類(lèi)處在有一個(gè)問(wèn)題必須要解決的情況下,并且如果人類(lèi)可以遠(yuǎn)離手機(jī)獨(dú)自待著,他們就會(huì)根據(jù)經(jīng)驗(yàn)找出一種解決方案。
這種學(xué)齡前兒童已經(jīng)擁有的技能,是人工智能的終極目標(biāo)。如果將這種技能提取并編碼運(yùn)用于軟件當(dāng)中,那么人工智能“思考機(jī)器”的稱(chēng)呼才是真的名副其實(shí)。
昨天發(fā)布的DeepMind最新一代人工智能,在創(chuàng)造擁有人類(lèi)智慧的強(qiáng)人工智能(AGI)的道路上掃除了其中一個(gè)重要障礙。大多數(shù)的人工智能只能學(xué)習(xí)一種技能,因?yàn)槿绻獙W(xué)習(xí)第二個(gè),它們必須要忘記第一個(gè)。這個(gè)名為“災(zāi)難性遺忘”問(wèn)題的出現(xiàn),是因?yàn)槲挥谌斯ぶ悄芎诵牡纳窠?jīng)網(wǎng)絡(luò)會(huì)用新的知識(shí)覆蓋舊的知識(shí)。
DeepMind通過(guò)模仿人類(lèi)大腦的運(yùn)轉(zhuǎn)來(lái)解決這一問(wèn)題。我們?cè)趯W(xué)習(xí)騎自行車(chē)時(shí)會(huì)不斷鞏固這一技能。我們能在喪失興趣后再去學(xué)習(xí)小提琴,也能了解世界各國(guó)的首都,還能掌握躲避球的復(fù)雜規(guī)則,最后我們?nèi)钥梢则T著自行車(chē)回家喝茶。裝載這種程序的人工智能,能夠使過(guò)去的重要知識(shí)在將來(lái)難以覆蓋,而這就是在模仿上述的過(guò)程。它利用而不是忘記過(guò)去的技能,以此來(lái)幫助自己學(xué)習(xí)新的技能。
因?yàn)樾碌娜斯ぶ悄苋匀槐A糁^(guò)去的技能,所以它還可以一個(gè)接一個(gè)地學(xué)習(xí)新的技能。這種人工智能曾研究雅達(dá)利經(jīng)典游戲——太空侵略者、Breakout、保衛(wèi)者等等——十個(gè)游戲中,七個(gè)它都能玩得和人類(lèi)一樣好。但是它的表現(xiàn)就不如只擅長(zhǎng)一種游戲的人工智能好。和我們一樣,新的人工智能更像是萬(wàn)金油,博而不精。
毫無(wú)疑問(wèn),如果思考機(jī)器真正的出現(xiàn)了,它們是強(qiáng)大而寶貴的。研究人員可以運(yùn)用它們來(lái)解決世界上最嚴(yán)重的問(wèn)題:貧困、不平等、氣候變化和疾病。
但這也有可能變成一種威脅。嚴(yán)肅的人工智能的研究人員以及其他許多著名但是對(duì)這一技能不是很了解的人物,已經(jīng)表明了他們的擔(dān)憂(yōu)。他們擔(dān)憂(yōu)某一天計(jì)算機(jī)會(huì)超越人類(lèi)智慧。“奇點(diǎn)”正在逐漸來(lái)臨,那時(shí)超級(jí)人工智能將以指數(shù)倍的速度發(fā)展,而這會(huì)造成技術(shù)混亂,并將那些貧窮的、沒(méi)有任何改善的人類(lèi)遠(yuǎn)遠(yuǎn)甩在身后。這些超級(jí)人工智能的計(jì)算機(jī)不需要憎惡我們就可以摧毀我們。正如牛津哲學(xué)家尼克·博斯特倫已經(jīng)指出,一個(gè)超級(jí)人工智能可能會(huì)很輕松的摧毀我們,僅僅是因?yàn)樗^(guò)于沉迷于制造曲別針而忘記了考慮人類(lèi)的福祉。
今年一月,在加利福尼亞阿西洛馬市,未來(lái)生命協(xié)會(huì)舉辦了一場(chǎng)名為“有益的人工智能”的會(huì)議。當(dāng)討論人工智能對(duì)于人類(lèi)的威脅時(shí),研究人員認(rèn)為人工智能的威脅相當(dāng)于核反應(yīng)堆控制棒。控制棒深入核反應(yīng)堆來(lái)控制危險(xiǎn)的核反應(yīng)。在會(huì)議的最后,組織者針對(duì)人工智能的安全發(fā)展發(fā)布了一系列指導(dǎo)原則。
盡管DeepMind的最新成果促使科學(xué)家們向強(qiáng)人工智能方向研究,但是這并不意味著奇點(diǎn)的臨近。人類(lèi)要掌握強(qiáng)人工智能所面臨的挑戰(zhàn)不止是人工智能如何能不斷學(xué)習(xí)。DeepMind的人工智能可以將它在一個(gè)游戲上學(xué)到的技巧運(yùn)用到另一個(gè)游戲中。然而,它不能夠?qū)⒁豁?xiàng)已掌握的技能類(lèi)推到其他技能上。面對(duì)一項(xiàng)新的任務(wù)時(shí),這種人工智能不能對(duì)其進(jìn)行考慮,思考自己的能力,并最終計(jì)算出如何有效地應(yīng)用自己的能力。
未來(lái)學(xué)家雷蒙德·庫(kù)茨魏爾認(rèn)為自現(xiàn)在起30年內(nèi)人類(lèi)定會(huì)進(jìn)入奇點(diǎn)。但是對(duì)其他科學(xué)家而言,我們可以避免創(chuàng)造擁有人類(lèi)智慧的人工智能。現(xiàn)在的問(wèn)題仍然是能否實(shí)現(xiàn),而非何時(shí)實(shí)現(xiàn)。模仿人類(lèi)的智慧是十分艱巨的。科學(xué)家們需要的是好的想法,此外,沒(méi)有人能夠預(yù)測(cè)靈感會(huì)何時(shí)降臨。
(編譯:王雅文 編輯:齊磊)
推薦