麻花传沈娜娜mv免费观看,自述被啪的最爽的一次,久久久久亚洲精品,香蒸焦蕉伊在线,国产网战无遮挡

Elon Musk的“人工智能惡魔論”是在誤導大眾

2014-11-04 項目

展示量: 3686
Elon Musk的“人工智能惡魔論”是在誤導大眾

作(zuo)者(zhe)注:Elon Musk不(bu)久前曾公(gong)開(kai)表示人(ren)工(gong)智(zhi)能就如同(tong)“召喚惡魔”,用(yong)科幻電影來說(shuo)明人(ren)工(gong)智(zhi)能的(de)(de)危(wei)害(hai)。但在(zai)本文作(zuo)者(zhe)看來卻是非常不(bu)負責任的(de)(de)誤導(dao)大眾,而且還在(zai)傳遞一種(zhong)沒來由的(de)(de)恐懼(ju),這(zhe)將對目前人(ren)工(gong)智(zhi)能領域(yu)的(de)(de)具體(ti)工(gong)作(zuo)產(chan)生嚴(yan)重傷(shang)害(hai)。作(zuo)者(zhe)對Musk的(de)(de)言(yan)論(lun)(lun)進(jin)行了(le)(le)強(qiang)有力反駁,并對人(ren)工(gong)智(zhi)能的(de)(de)風險(xian)評(ping)估和(he)發(fa)展提供了(le)(le)非常完善的(de)(de)論(lun)(lun)證。


本文原載,作(zuo)者Jordan Pearson,由(you)機器之心成員(yuan)赤龍飛(fei)、楊涵舒(shu)、Viola、微(wei)胖(pang)、趙賽(sai)坡和趙云峰(feng)翻譯。歡迎關注微(wei)信公眾號:機器之心(ID:almosthuman2014)。


Elon Musk縮短了未來和當下的距離。他的SpaceX成功的完成了太空探索任務,特斯拉也在電動車行業發揮了關鍵作用。因此,當Musk談論未來時,人們總會側耳傾聽。這就是他最近對人工智能的言論引起如此多關注的原因


在(zai)巧舌如簧的(de)(de)對人(ren)工(gong)(gong)智能研究(jiu)的(de)(de)走向大潑臟水方面(mian),Musk的(de)(de)行為(wei)不斷(duan)升(sheng)級(ji)加碼。就在(zai)最近(jin),他將當(dang)下的(de)(de)人(ren)工(gong)(gong)智能研究(jiu)描述成(cheng)“召喚(huan)惡魔”,并(bing)且惡搞的(de)(de)將影片《2001太(tai)空(kong)漫游》中(zhong)的(de)(de)超級(ji)電(dian)腦(nao)HAL9000戲稱(cheng)為(wei)小狗,拿它和未(wei)來(lai)(lai)(lai)的(de)(de)機器人(ren)做比(bi)較(jiao)。前段時間,他解釋之所以參與人(ren)工(gong)(gong)智能公司DeepMind,是因為(wei)他渴望(wang)時刻關注可能出現(xian)的(de)(de)“終結者”情形的(de)(de)進展。這樣的(de)(de)談論總體來(lai)(lai)(lai)說(shuo)弊大于(yu)利,特別是對于(yu)那些(xie)Musk的(de)(de)鐵桿(gan)粉絲來(lai)(lai)(lai)說(shuo)。


從根本(ben)上講,Musk的(de)言(yan)論被(bei)大(da)肆炒作(zuo)和宣傳,當這(zhe)樣的(de)負面宣傳涉及到具體(ti)的(de)研(yan)(yan)究(jiu)工作(zuo)時,會產生非(fei)常消極和有害的(de)后果(guo)。就像(xiang)去年Gary Marcus在《New Yorker》雜志的(de)一(yi)篇專題(ti)報道中所說(shuo),在過去的(de)幾十年中,公(gong)眾關注熱點的(de)反復(fu)(fu)無常、投(tou)機行為蔓延、以及研(yan)(yan)究(jiu)先驅們(men)的(de)接連放(fang)棄(qi)一(yi)直困擾著人工智(zhi)能(neng)的(de)研(yan)(yan)究(jiu)。這(zhe)一(yi)現(xian)(xian)象被(bei)稱作(zuo)“人工智(zhi)能(neng)寒冬”——研(yan)(yan)究(jiu)者(zhe)在燒掉投(tou)資之后卻無法兌現(xian)(xian)他們(men)之前在媒體(ti)上公(gong)開發表的(de)承諾,這(zhe)一(yi)過程(cheng)在人工智(zhi)能(neng)的(de)歷史上重復(fu)(fu)出現(xian)(xian)。


正如1993年Daniel Crevier(加拿大企業家、人(ren)(ren)(ren)工智(zhi)(zhi)能(neng)(neng)和圖像處理(li)專家)在一本對(dui)人(ren)(ren)(ren)工智(zhi)(zhi)能(neng)(neng)歷(li)史研(yan)究(jiu)的(de)(de)書(shu)里所描述的(de)(de)那樣,或許人(ren)(ren)(ren)工智(zhi)(zhi)能(neng)(neng)研(yan)究(jiu)中最(zui)聲名狼籍的(de)(de)宣(xuan)傳(也(ye)就是宣(xuan)揚人(ren)(ren)(ren)工智(zhi)(zhi)能(neng)(neng)將戰勝人(ren)(ren)(ren)類)發(fa)生在20世紀70年代(dai),當時,DARPA(美(mei)國國防(fang)部先進研(yan)究(jiu)項目局)資助了很多類似項目,但(dan)最(zui)終(zhong)效果卻都(dou)未達(da)到預期。


Facebook 人工智能實驗室的負責人Yann LeCun去年在Google+上總結道:“一些不實宣傳對于人工智能是非常危險的。在過去的50年里,人工智能就先后因為不實宣傳而沉淪了四次。關于人工智能的炒作必須停止。”如果不能(neng)如Musk所愿,我(wo)們(men)五年內造不出一臺功(gong)能(neng)齊全的自動駕駛汽車,會(hui)對(dui)這個領域產(chan)生何(he)種影響(xiang)?因此,還(huan)是忘記(ji)所謂的終結者吧,我(wo)們(men)應該重新考量如何(he)談(tan)論人工智能(neng)。


Musk對于人工智能的尖刻評論只會誤導那些比他更不熟悉人工智能的人。事(shi)實上,我們現在(zai)最聰明的人工智能(neng)產(chan)品也僅(jin)僅(jin)是(shi)與一個剛會走路的孩(hai)子智力相當,而這還僅(jin)限于處理一些(xie)需要外部(bu)幫助的任(ren)務(wu)(如信息召回(hui))。大多數(shu)機器學(xue)家仍然在(zai)努(nu)力使機器人們能(neng)夠撿起一個球,跑步時不會摔(shuai)倒,這看起來離(li)“天網”的最終(zhong)結局還有十(shi)萬(wan)八千里。


的(de)(de)確(que),歐盟的(de)(de)Human Brain Project和美國的(de)(de)BRAIN Initiative花(hua)費巨(ju)資(zi),希望能夠找到人類(lei)大腦的(de)(de)“數(shu)字地圖(tu)”,但他們任重道遠,大多(duo)數(shu)支撐研(yan)究(jiu)結(jie)果的(de)(de)技(ji)術(shu)還處在研(yan)發階(jie)段,比如,能夠更好掃描大腦的(de)(de)納米(mi)生(sheng)物傳感器(qi)。當(dang)(dang)然,這(zhe)不是說這(zhe)些研(yan)究(jiu)完全(quan)沒有意義(yi)(yi),這(zhe)項(xiang)工(gong)作當(dang)(dang)然有意義(yi)(yi),而且這(zhe)些研(yan)究(jiu)并(bing)沒有向公(gong)眾宣揚(yang)所(suo)謂的(de)(de)恐懼。


“當我們聽到這(zhe)(zhe)些(xie)關(guan)(guan)于人(ren)(ren)工(gong)智(zhi)能的(de)(de)令人(ren)(ren)驚悚的(de)(de)事情時,就感覺(jue)像(xiang)是那(nei)種(zhong)源于外星(xing)人(ren)(ren)和科幻(huan)小說的(de)(de)恐(kong)懼。外星(xing)人(ren)(ren)出現了,帶著比我們高三倍的(de)(de)智(zhi)商。”紐(niu)約倫斯勒理工(gong)學院人(ren)(ren)工(gong)智(zhi)能實驗室(shi)主任Selmer Bringsjord告訴我,“那(nei)些(xie)政(zheng)府支持下的(de)(de)人(ren)(ren)工(gong)智(zhi)能研究員也(ye)開始產生這(zhe)(zhe)種(zhong)電(dian)影(ying)情節里的(de)(de)恐(kong)懼情緒。這(zhe)(zhe)與自己現在所做的(de)(de)研究無(wu)關(guan)(guan),而是一種(zhong)更深層次的(de)(de)、非理性的(de)(de)恐(kong)懼。”


以Musk和霍金為代表的這些人最害怕的是人工智能所帶來的“存在風險(existential risk)。” 存在風險是指那些威脅到整個人類發展、或者是將我們徹底毀滅的風險,該(gai)名詞于2001年由牛津大學(xue)人(ren)類未(wei)來學(xue)院(FHI,Oxford)院長Nick Bostrom首次提出并從此流行(xing)開(kai)來。Musk是Bostrom最近所著(zhu)一本書《Superintelligence》的粉絲。


來(lai)自(zi)牛津大學人(ren)(ren)類(lei)未來(lai)學院的(de)科學家Daniel Dewey表(biao)示,“存在風險(xian)”可(ke)能是戰爭、財富(fu)不均蔓延、自(zi)然災害、以及惡意的(de)人(ren)(ren)工(gong)智(zhi)能。有一個明顯的(de)事實(shi)Musk沒(mei)有搞清楚(chu),至少是沒(mei)表(biao)達出(chu)(chu)來(lai)——與(yu)其他(ta)風險(xian)不同,在評估(gu)人(ren)(ren)工(gong)智(zhi)能所帶來(lai)的(de)風險(xian)時需要單(dan)獨對(dui)待(dai),因為目前(qian)對(dui)該風險(xian)的(de)討論在很大程度上是一種帶有推測性的(de)、哲學上的(de)見仁(ren)見智(zhi),沒(mei)有統一的(de)路(lu)徑可(ke)循,而這些推斷正確與(yu)否只有在遙(yao)遠的(de)未來(lai)才(cai)能得到驗(yan)證。即便如此(ci),只有當機器突然具(ju)備(bei)了出(chu)(chu)乎我們意料的(de)智(zhi)能之后(hou),人(ren)(ren)類(lei)未來(lai)學院研究者眼(yan)中的(de)“智(zhi)能爆炸(zha)”才(cai)會出(chu)(chu)現。


“我認為,我們要足夠重視我們目前對人工智能風險狀況的未知程度。” Dewey說到,“我們現在對人工智能的評估大多是一種可能性討論,而不是嚴謹的計算——例如,我們雖(sui)然可以談論智(zhi)能(neng)爆(bao)炸有(you)可能(neng)出現(xian),但無法(fa)百分之百確認這種可能(neng)性(xing),也無法(fa)預(yu)測這會在何時發(fa)生。


像霍(huo)金(jin)一樣(譯者注:霍(huo)金(jin)曾表示人(ren)(ren)工智(zhi)(zhi)(zhi)能(neng)(neng)或將(jiang)威脅到人(ren)(ren)類(lei)生存),Musk認為相關的(de)(de)(de)監督(du)管理(li)委(wei)員會(hui)應該開始監督(du)人(ren)(ren)工智(zhi)(zhi)(zhi)能(neng)(neng)的(de)(de)(de)發展(zhan),以免我(wo)們做出一些“非常愚(yu)蠢的(de)(de)(de)事情”,比如說造出一個(ge)能(neng)(neng)干掉我(wo)們的(de)(de)(de)機器(qi)人(ren)(ren)。但(dan)(dan)我(wo)們對(dui)(dui)此(ci)(ci)表示嚴(yan)重懷疑,一個(ge)負責頒布公(gong)共政策的(de)(de)(de)人(ren)(ren)工智(zhi)(zhi)(zhi)能(neng)(neng)委(wei)員會(hui)此(ci)(ci)時能(neng)(neng)做出些什(shen)么?誠然,就像華盛頓大學(xue)法學(xue)院教授Ryan Calo提(ti)議的(de)(de)(de)那樣,針對(dui)(dui)已(yi)經具備一定智(zhi)(zhi)(zhi)能(neng)(neng)的(de)(de)(de)機器(qi)人(ren)(ren)制定一套規則(ze)是有(you)好處的(de)(de)(de),例如我(wo)們已(yi)經擁有(you)的(de)(de)(de)自動駕駛汽(qi)車、無人(ren)(ren)機殺手和(he)戰爭機器(qi)人(ren)(ren)等(deng)等(deng)。但(dan)(dan)對(dui)(dui)于那些依然遙(yao)不可及的(de)(de)(de)強人(ren)(ren)工智(zhi)(zhi)(zhi)能(neng)(neng),就完全另當(dang)別論了。


“危(wei)險(xian)會(hui)很嚴重,在(zai)某些具體的情(qing)景下,人工智能可(ke)(ke)能會(hui)做(zuo)出錯(cuo)誤(wu)決定。舉例(li)來說,一臺自(zi)動駕駛汽車(che)只會(hui)考慮(lv)更加現(xian)實(shi)和(he)直接的風險(xian),就像(xiang)最(zui)近(jin)廣為(wei)(wei)人知的倫理困境(譯(yi)者注:例(li)如(ru)桑德(de)爾在(zai)《公(gong)正》中提到(dao)的案例(li)),所以當撞車(che)成為(wei)(wei)最(zui)符合現(xian)實(shi)主義(yi)和(he)最(zui)可(ke)(ke)靠(kao)的選擇時(shi),機器(qi)會(hui)毫不猶(you)豫的這樣去做(zuo)。"


"我認為人工智能是一個數學和工程學問題,而非公共政策問題。”Bringsjord坦言(yan),"如果我們建(jian)立(li)一個(ge)委(wei)員會,我們應重點關注人工智能(neng)的(de)工程層面。”


根據Bringsjord的(de)觀(guan)點,在出(chu)臺公共政策之前,應該先從優秀的(de)工程設(she)計入手來對人(ren)工智能潛在的(de)社(she)會弊(bi)病進行規范(fan)。這不僅(jin)僅(jin)是(shi)因為(wei)人(ren)工智能剛(gang)剛(gang)上路,更是(shi)因為(wei)嚴(yan)謹的(de)設(she)計過程能夠緩解計算機程序中(zhong)出(chu)現的(de)弊(bi)端。


解決這(zhe)(zhe)個問題的方法之(zhi)一就是恢復(fu)對正(zheng)(zheng)式軟件認證(zheng)的研(yan)(yan)究,他說,正(zheng)(zheng)式認證(zheng)可(ke)以精確的檢測出(chu)程序(xu)的缺陷和潛在錯(cuo)誤,將功能失常的風險降(jiang)到幾(ji)乎為零。過(guo)去隨著(zhu)資助減少,這(zhe)(zhe)方面的研(yan)(yan)究活動(dong)曾一度消失,但DARPA已經開始通過(guo)開源(yuan)和眾包的形式來重新(xin)開啟(qi)這(zhe)(zhe)項研(yan)(yan)究(譯(yi)者注:即(ji)DARPA的CSFV,開源(yuan)正(zheng)(zheng)式認證(zheng))。


“相(xiang)比(bi)這(zhe)類監管委員會,我(wo)(wo)們(men)(men)更愿(yuan)意為那些有能力進(jin)行必(bi)要(yao)的(de)工(gong)程(cheng)設計的(de)人(ren)買單,”Bringsjord對我(wo)(wo)說,“就像(xiang)新奧爾良(liang)洪水,眾所周知,工(gong)程(cheng)師曾事無巨(ju)細(xi)的(de)向(xiang)我(wo)(wo)們(men)(men)解(jie)釋了(le)如何保(bao)護新奧爾良(liang)免于洪水侵害——但別(bie)人(ren)卻認為這(zhe)項計劃耗資太(tai)過巨(ju)大。因此,從本質上來說,輕率的(de)吝嗇行為才是真(zhen)正(zheng)威脅,而非人(ren)工(gong)智能。


但(dan)是,先進人(ren)工智(zhi)(zhi)(zhi)能(neng)與生俱來的潛(qian)在(zai)(zai)危險(xian)似乎才(cai)是Musk們所(suo)重點關注的。技術(shu)有招致毀滅的風險(xian),這(zhe)種黑(hei)色預言不但(dan)捏(nie)造了人(ren)工智(zhi)(zhi)(zhi)能(neng)在(zai)(zai)可預見的將來真(zhen)正能(neng)做的事情,而(er)且還使現在(zai)(zai)對(dui)人(ren)工智(zhi)(zhi)(zhi)能(neng)的討(tao)論(lun)陷入混亂。


比(bi)如,科技(ji)發(fa)展(zhan)所(suo)帶來的(de)(de)失(shi)業。資本控(kong)制下的(de)(de)人(ren)(ren)(ren)工(gong)智能(neng)(neng)和便攜機器(qi)人(ren)(ren)(ren)研發(fa)正徹底(di)改變世界,取(qu)代無數(shu)勞動者,完全體現不出任(ren)何的(de)(de)未來進(jin)步。隨著無人(ren)(ren)(ren)機技(ji)術的(de)(de)不斷進(jin)步和應用范圍的(de)(de)擴大(da),軍用機器(qi)人(ren)(ren)(ren)雖(sui)然沒有強人(ren)(ren)(ren)工(gong)智能(neng)(neng)的(de)(de)支持,但也(ye)能(neng)(neng)夠自行完成殺(sha)人(ren)(ren)(ren)任(ren)務,這已(yi)經(jing)成為極具(ju)爭議(yi)的(de)(de)話題(ti),但那些呼吁(yu)停止這類研發(fa)的(de)(de)組織卻被直接忽視。


事實上,我們(men)不(bu)需要這樣的(de)(de)(de)技術突破——人(ren)(ren)工智能(neng)變得和(he)人(ren)(ren)一(yi)樣聰明,因為我們(men)的(de)(de)(de)世界將不(bu)可避免的(de)(de)(de)被機器和(he)軟件改(gai)變,不(bu)論好壞。這不(bu)是說(shuo),我們(men)不(bu)該考慮先進(jin)人(ren)(ren)工智能(neng)的(de)(de)(de)未來應(ying)用(yong),而(er)是應(ying)該更加負責(ze)一(yi)點(dian),尤其是面對(dui)公眾時。


Musk的評論適時給媒體的炒作加了一把火,也加劇了這種未經證實的恐懼,而這種恐懼僅僅是來源于對一種還處于嬰兒階段的技術的過分夸大,不管它每天的進步是多么令人印象深刻。自動駕駛汽車、智能安檢員、機器人同事......這些可能性雖讓人恐懼,但也很美妙。這就是我們的未來,而(er)人工智能決不會讓它陷(xian)入瘋狂(kuang)。


文章為作者獨立觀點,不代表創投分享會立場
知名風險投資公司
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Copyright©創業聯合網 ALL Rights Reserved
商務與客服聯系微信