霍金:警惕各國展開“人工智能軍備競賽”
當(dāng)然,人工智能競賽肯定還會在各個領(lǐng)域里繼續(xù),比如微軟利用人工智能提升應(yīng)用程序,還有很多公司都在探索自動駕駛汽車。不過,除了霍金之外,SpaceX創(chuàng)始人埃隆馬斯克,蘋果聯(lián)合創(chuàng)始人史蒂夫沃茲尼亞克,以及其他數(shù)千個科技界人士都在密切關(guān)注人工智能在軍事領(lǐng)域中的應(yīng)用。
在接受拉里金的“LarryKingNow”節(jié)目線上采訪時,霍金承認(rèn)人工智能可以給人類帶來很多好處。他說:
想象一下,人工智能算法可以快速評估科學(xué)家的想法,更早監(jiān)測出癌癥,甚至預(yù)測股票市場。
但霍金同時也表示,人工智能必須要受到嚴(yán)格監(jiān)管。
但是,對于未來學(xué)家雷庫茲韋爾提出只需幾十年就能實現(xiàn)人類思維和機器的融合,霍金并不認(rèn)同,他說:
我覺得雷庫茲韋爾的想法過于簡單化、也過于樂觀了。指數(shù)級增長不可能一直持續(xù)下去。過去也有發(fā)生過的類似預(yù)測,有些我們無法預(yù)測的事情會打斷人工智能的發(fā)展。我不認(rèn)為人工智能必然會良性發(fā)展。一旦到了某個關(guān)鍵階段,機器能夠?qū)崿F(xiàn)自我進化,我們就不能預(yù)測他們的目標(biāo)是否會和人類的保持一致。
這就是霍金和庫茲韋爾彼此之間的一場隔空辯論。回到2014年,庫茲韋爾曾表示霍金本人就是人工智能技術(shù)的受益者——比如,語音合成軟件,幫助他克服了自己衰弱的神經(jīng)性變異疾病。同時,他還指出在認(rèn)識人工智能前景時,人類通常會出于危險考慮而設(shè)置一個“道德律令”。
拉里金的采訪安排在了本屆Starmus大會上,今年這屆科學(xué)大會被安排在了加那利群島,目的是為了慶祝霍金的人生和事業(yè)所取得的成就?;艚鹗鞘澜缟洗婊顣r間長,也是的肌萎縮側(cè)索硬化癥患者,明年一月,他就75歲了。
下面是本次采訪其他一些主要內(nèi)容:
霍金說,人工智能不是人類所遇到的威脅,人口膨脹和空氣污染(包括不斷增長的溫室氣體排放)也是需要引起人們注意的問題。“現(xiàn)在關(guān)注如何避免變暖的問題是不是已經(jīng)太晚了呢?”霍金問道。對于這些問題,他看上去并不樂觀。拉里金詢問霍金從六年前的上一次采訪至今,有什么事情發(fā)生了變化,霍金回答說:“我們?nèi)祟惍?dāng)然也變得不那么貪婪和愚蠢了。”
霍金的,就是他提出的黑洞理論。近他又發(fā)表了一篇論文,闡述了黑洞不會摧毀所有被它吸入的東西。但讓霍金感到驚訝的是,他發(fā)現(xiàn)了一些加速宇宙膨脹的神秘因素,這個因素被稱為暗能量,但是霍金表示之所以叫這個名字,是因為它只是一個名字,用來命名我們還不明白東西的而已。