丝袜久久亚洲国产毛片,老人AV综合,国产精品日韩av,超碰国产综合,综合av在线草,毛片久久久,精品蜜桃一区三区,99久久久,人妻99在线视频

Elon Musk的“人工智能惡魔論”是在誤導(dǎo)大眾

2014-11-04 項目

展示量: 3835
Elon Musk的“人工智能惡魔論”是在誤導(dǎo)大眾

作者注:Elon Musk不久前曾公開表示人工智能就如同“召喚惡魔”,用科幻電影來說明人工智能的危害。但在本文作者看來卻是非常不負責任的誤導(dǎo)大眾,而且還在傳遞一種沒來由的恐懼,這將對目前人工智能領(lǐng)域的具體工作產(chǎn)生嚴重傷害。作者對Musk的言論進行了強有力反駁,并對人工智能的風險評估和發(fā)展提供了非常完善的論證。


本文原載這里,作者Jordan Pearson,由機器之心成員赤龍飛、楊涵舒、Viola、微胖、趙賽坡和趙云峰翻譯。歡迎關(guān)注微信公眾號:機器之心(ID:almosthuman2014)。


Elon Musk縮短了未來和當下的距離。他的SpaceX成功的完成了太空探索任務(wù),特斯拉也在電動車行業(yè)發(fā)揮了關(guān)鍵作用。因此,當Musk談?wù)撐磥頃r,人們總會側(cè)耳傾聽。這就是他最近對人工智能的言論引起如此多關(guān)注的原因。


在巧舌如簧的對人工智能研究的走向大潑臟水方面,Musk的行為不斷升級加碼。就在最近,他將當下的人工智能研究描述成“召喚惡魔”,并且惡搞的將影片《2001太空漫游》中的超級電腦HAL9000戲稱為小狗,拿它和未來的機器人做比較。前段時間,他解釋之所以參與人工智能公司DeepMind,是因為他渴望時刻關(guān)注可能出現(xiàn)的“終結(jié)者”情形的進展。這樣的談?wù)摽傮w來說弊大于利,特別是對于那些Musk的鐵桿粉絲來說。


從根本上講,Musk的言論被大肆炒作和宣傳,當這樣的負面宣傳涉及到具體的研究工作時,會產(chǎn)生非常消極和有害的后果。就像去年Gary Marcus在《New Yorker》雜志的一篇專題報道中所說,在過去的幾十年中,公眾關(guān)注熱點的反復(fù)無常、投機行為蔓延、以及研究先驅(qū)們的接連放棄一直困擾著人工智能的研究。這一現(xiàn)象被稱作“人工智能寒冬”——研究者在燒掉投資之后卻無法兌現(xiàn)他們之前在媒體上公開發(fā)表的承諾,這一過程在人工智能的歷史上重復(fù)出現(xiàn)。


正如1993年Daniel Crevier(加拿大企業(yè)家、人工智能和圖像處理專家)在一本對人工智能歷史研究的書里所描述的那樣,或許人工智能研究中最聲名狼籍的宣傳(也就是宣揚人工智能將戰(zhàn)勝人類)發(fā)生在20世紀70年代,當時,DARPA(美國國防部先進研究項目局)資助了很多類似項目,但最終效果卻都未達到預(yù)期。


Facebook 人工智能實驗室的負責人Yann LeCun去年在Google+上總結(jié)道:“一些不實宣傳對于人工智能是非常危險的。在過去的50年里,人工智能就先后因為不實宣傳而沉淪了四次。關(guān)于人工智能的炒作必須停止。”如果不能如Musk所愿,我們五年內(nèi)造不出一臺功能齊全的自動駕駛汽車,會對這個領(lǐng)域產(chǎn)生何種影響?因此,還是忘記所謂的終結(jié)者吧,我們應(yīng)該重新考量如何談?wù)撊斯ぶ悄堋?/p>


Musk對于人工智能的尖刻評論只會誤導(dǎo)那些比他更不熟悉人工智能的人。事實上,我們現(xiàn)在最聰明的人工智能產(chǎn)品也僅僅是與一個剛會走路的孩子智力相當,而這還僅限于處理一些需要外部幫助的任務(wù)(如信息召回)。大多數(shù)機器學家仍然在努力使機器人們能夠撿起一個球,跑步時不會摔倒,這看起來離“天網(wǎng)”的最終結(jié)局還有十萬八千里。


的確,歐盟的Human Brain Project和美國的BRAIN Initiative花費巨資,希望能夠找到人類大腦的“數(shù)字地圖”,但他們?nèi)沃氐肋h,大多數(shù)支撐研究結(jié)果的技術(shù)還處在研發(fā)階段,比如,能夠更好掃描大腦的納米生物傳感器。當然,這不是說這些研究完全沒有意義,這項工作當然有意義,而且這些研究并沒有向公眾宣揚所謂的恐懼。


“當我們聽到這些關(guān)于人工智能的令人驚悚的事情時,就感覺像是那種源于外星人和科幻小說的恐懼。外星人出現(xiàn)了,帶著比我們高三倍的智商?!奔~約倫斯勒理工學院人工智能實驗室主任Selmer Bringsjord告訴我,“那些政府支持下的人工智能研究員也開始產(chǎn)生這種電影情節(jié)里的恐懼情緒。這與自己現(xiàn)在所做的研究無關(guān),而是一種更深層次的、非理性的恐懼?!?/p>


以Musk和霍金為代表的這些人最害怕的是人工智能所帶來的“存在風險(existential risk)?!?strong> 存在風險是指那些威脅到整個人類發(fā)展、或者是將我們徹底毀滅的風險,該名詞于2001年由牛津大學人類未來學院(FHI,Oxford)院長Nick Bostrom首次提出并從此流行開來。Musk是Bostrom最近所著一本書《Superintelligence》的粉絲。


來自牛津大學人類未來學院的科學家Daniel Dewey表示,“存在風險”可能是戰(zhàn)爭、財富不均蔓延、自然災(zāi)害、以及惡意的人工智能。有一個明顯的事實Musk沒有搞清楚,至少是沒表達出來——與其他風險不同,在評估人工智能所帶來的風險時需要單獨對待,因為目前對該風險的討論在很大程度上是一種帶有推測性的、哲學上的見仁見智,沒有統(tǒng)一的路徑可循,而這些推斷正確與否只有在遙遠的未來才能得到驗證。即便如此,只有當機器突然具備了出乎我們意料的智能之后,人類未來學院研究者眼中的“智能爆炸”才會出現(xiàn)。


“我認為,我們要足夠重視我們目前對人工智能風險狀況的未知程度。” Dewey說到,“我們現(xiàn)在對人工智能的評估大多是一種可能性討論,而不是嚴謹?shù)挠嬎?/strong>——例如,我們雖然可以談?wù)撝悄鼙ㄓ锌赡艹霈F(xiàn),但無法百分之百確認這種可能性,也無法預(yù)測這會在何時發(fā)生。


像霍金一樣(譯者注:霍金曾表示人工智能或?qū)⑼{到人類生存),Musk認為相關(guān)的監(jiān)督管理委員會應(yīng)該開始監(jiān)督人工智能的發(fā)展,以免我們做出一些“非常愚蠢的事情”,比如說造出一個能干掉我們的機器人。但我們對此表示嚴重懷疑,一個負責頒布公共政策的人工智能委員會此時能做出些什么?誠然,就像華盛頓大學法學院教授Ryan Calo提議的那樣,針對已經(jīng)具備一定智能的機器人制定一套規(guī)則是有好處的,例如我們已經(jīng)擁有的自動駕駛汽車、無人機殺手和戰(zhàn)爭機器人等等。但對于那些依然遙不可及的強人工智能,就完全另當別論了。


“危險會很嚴重,在某些具體的情景下,人工智能可能會做出錯誤決定。舉例來說,一臺自動駕駛汽車只會考慮更加現(xiàn)實和直接的風險,就像最近廣為人知的倫理困境(譯者注:例如桑德爾在《公正》中提到的案例),所以當撞車成為最符合現(xiàn)實主義和最可靠的選擇時,機器會毫不猶豫的這樣去做。"


"我認為人工智能是一個數(shù)學和工程學問題,而非公共政策問題。”Bringsjord坦言,"如果我們建立一個委員會,我們應(yīng)重點關(guān)注人工智能的工程層面?!?/p>


根據(jù)Bringsjord的觀點,在出臺公共政策之前,應(yīng)該先從優(yōu)秀的工程設(shè)計入手來對人工智能潛在的社會弊病進行規(guī)范。這不僅僅是因為人工智能剛剛上路,更是因為嚴謹?shù)脑O(shè)計過程能夠緩解計算機程序中出現(xiàn)的弊端。


解決這個問題的方法之一就是恢復(fù)對正式軟件認證的研究,他說,正式認證可以精確的檢測出程序的缺陷和潛在錯誤,將功能失常的風險降到幾乎為零。過去隨著資助減少,這方面的研究活動曾一度消失,但DARPA已經(jīng)開始通過開源和眾包的形式來重新開啟這項研究(譯者注:即DARPA的CSFV,開源正式認證)。


“相比這類監(jiān)管委員會,我們更愿意為那些有能力進行必要的工程設(shè)計的人買單,”Bringsjord對我說,“就像新奧爾良洪水,眾所周知,工程師曾事無巨細的向我們解釋了如何保護新奧爾良免于洪水侵害——但別人卻認為這項計劃耗資太過巨大。因此,從本質(zhì)上來說,輕率的吝嗇行為才是真正威脅,而非人工智能。


但是,先進人工智能與生俱來的潛在危險似乎才是Musk們所重點關(guān)注的。技術(shù)有招致毀滅的風險,這種黑色預(yù)言不但捏造了人工智能在可預(yù)見的將來真正能做的事情,而且還使現(xiàn)在對人工智能的討論陷入混亂。


比如,科技發(fā)展所帶來的失業(yè)。資本控制下的人工智能和便攜機器人研發(fā)正徹底改變世界,取代無數(shù)勞動者,完全體現(xiàn)不出任何的未來進步。隨著無人機技術(shù)的不斷進步和應(yīng)用范圍的擴大,軍用機器人雖然沒有強人工智能的支持,但也能夠自行完成殺人任務(wù),這已經(jīng)成為極具爭議的話題,但那些呼吁停止這類研發(fā)的組織卻被直接忽視。


事實上,我們不需要這樣的技術(shù)突破——人工智能變得和人一樣聰明,因為我們的世界將不可避免的被機器和軟件改變,不論好壞。這不是說,我們不該考慮先進人工智能的未來應(yīng)用,而是應(yīng)該更加負責一點,尤其是面對公眾時。


Musk的評論適時給媒體的炒作加了一把火,也加劇了這種未經(jīng)證實的恐懼,而這種恐懼僅僅是來源于對一種還處于嬰兒階段的技術(shù)的過分夸大,不管它每天的進步是多么令人印象深刻。自動駕駛汽車、智能安檢員、機器人同事......這些可能性雖讓人恐懼,但也很美妙。這就是我們的未來,而人工智能決不會讓它陷入瘋狂。


文章為作者獨立觀點,不代表創(chuàng)投分享會立場
知名風險投資公司
紅杉資本|瑞華投資|同創(chuàng)偉業(yè)|達晨創(chuàng)投|深創(chuàng)投|IDG|創(chuàng)東方|君聯(lián)資本|中科招商|經(jīng)緯中國|啟明創(chuàng)投|松禾資本|英特爾投資|優(yōu)勢資本|東方富海|天堂硅谷|九鼎投資|晨興創(chuàng)投|江蘇高科投|北極光創(chuàng)投|德同資本|凱雷投資|中國風投|天圖資本|真格基金|DCM|IFC|凱鵬華盈|高盛投資|啟迪創(chuàng)投|戈壁|荷多投資|紀源資本|鼎暉投資|華平投資|金沙江投資|海納亞洲|永宣創(chuàng)投|險峰華興創(chuàng)投|中投|海通開元|中信資本|力鼎資本|平安創(chuàng)新資本|天使灣創(chuàng)投|和君資本|祥峰集團|招商湘江投資|元禾控股|力合創(chuàng)投|復(fù)星創(chuàng)富|陜西高投|光速創(chuàng)投|富達亞洲|成為資本|中信產(chǎn)業(yè)基金|GIC|基石資本|金茂資本|富坤創(chuàng)投|盈富泰克|重慶科投|鼎暉創(chuàng)投|北工投資|海富投資|招商局資本|新天域資本|中路集團|摩根士丹利|青云創(chuàng)投|建銀國際|德豐杰|弘毅投資|CVC|藍馳創(chuàng)投|寬帶資本|秉鴻資本|金石投資|天創(chuàng)資本|證大投資|中經(jīng)合|信中利|蘭馨亞洲|淡馬錫|浙商創(chuàng)投|華睿投資|景林資產(chǎn)|摯信資本|高特佳|清科創(chuàng)投|華登國際|山東高新投|集富亞洲|騰訊|無錫創(chuàng)投|創(chuàng)新工場|智基創(chuàng)投|策源創(chuàng)投|軟銀中國|
Copyright©創(chuàng)業(yè)聯(lián)合網(wǎng) ALL Rights Reserved
商務(wù)與客服聯(lián)系微信
湘潭市| 宜兰县| 登封市| 琼海市| 吉隆县| 镇坪县| 营山县| 万盛区| 西华县| 怀柔区| 正安县| 三河市| 贵港市| 文化| 辰溪县| 莱阳市| 科技| 德化县| 剑阁县| 门头沟区| 日土县| 密山市| 岳池县| 天峻县| 阜新市| 贵溪市| 兴仁县| 禄丰县| 苍溪县| 扶绥县| 鹤山市| 桂东县| 平南县| 泉州市| 中阳县| 穆棱市| 策勒县| 安龙县| 台州市| 镇宁| 申扎县|