【中國智能制造網(wǎng) 名家論壇】英國物理學(xué)家史蒂芬·霍金(StephenHawking)日前接受采訪時,宣稱
機器人的進化速度可能比人類更快,而它們的目標(biāo)將是不可預(yù)測的。
機器人進化速度超預(yù)期 未來不可預(yù)測
在采訪中,霍金表示出對人類未來的擔(dān)憂。他說:“我并不認為人工智能的進化必然是良性的。一旦機器人達到能夠自我進化的關(guān)鍵階段,我們無法預(yù)測它們的目標(biāo)是否還與人類相同。人工智能可能比人類進化速度更快,我們需要確保人工智能的設(shè)計符合道德倫理規(guī)范,保障措施到位。”
隨著人工智能的進化,機器人很可能獨立地選擇目標(biāo)并開槍射擊。全自動武器(又稱殺人機器人)正從科幻電影變成現(xiàn)實。這并非霍金警告機器人存在的潛在危險。去年,霍金表示,隨著技術(shù)的發(fā)展,并學(xué)會自我思考和適應(yīng)環(huán)境,人類將面臨不確定的未來。
今年年初,霍金也曾表示,成功創(chuàng)造人工智能可能是人類史上偉大的事件,不幸的是,這也可能成為人類后的偉大發(fā)明。他認為,數(shù)字個人助理Siri、GoogleNow以及Cortana都只是IT軍備競賽的預(yù)兆,未來數(shù)十年間將更加明顯。
此前,他曾直言不諱地表達出對人工智能發(fā)展的擔(dān)憂。霍金表示,邪惡陰險的威脅正在硅谷的技術(shù)實驗室中醞釀。人工智能可能偽裝成有用的數(shù)字助理或無人駕駛汽車以獲得立足之地,將來它們可能終結(jié)人類。
霍金并非擔(dān)心人工智能的人。特斯拉電動汽車公司執(zhí)行官伊隆·馬斯克(ElonMusk)曾經(jīng)研發(fā)人工智能比作“召喚惡魔”,他警告人工智能技術(shù)對人類的傷害可能超過核武器。
但霍金也承認人工智能帶來的其他好處顯而易見,可以幫助消除戰(zhàn)爭、疾病以及貧困。他認為人類面臨的大威脅是我們自身的弱點,即貪婪和愚蠢。他說:“我們的貪婪和愚蠢并未減少。6年前,我曾警告污染和擁擠,自從那以來這些都變得更加嚴重。以當(dāng)前速度持續(xù)下去,到2100年,人口將達到110億。在過去5年間,空氣污染也在加劇。”
版權(quán)與免責(zé)聲明:
凡本站注明“來源:智能制造網(wǎng)”的所有作品,均為浙江興旺寶明通網(wǎng)絡(luò)有限公司-智能制造網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,未經(jīng)本站授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來源:智能制造網(wǎng)”。違反上述聲明者,本站將追究其相關(guān)法律責(zé)任。
本站轉(zhuǎn)載并注明自其它來源(非智能制造網(wǎng))的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負責(zé),不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如其他媒體、平臺或個人從本站轉(zhuǎn)載時,必須保留本站注明的作品第一來源,并自負版權(quán)等法律責(zé)任。如擅自篡改為“稿件來源:智能制造網(wǎng)”,本站將依法追究責(zé)任。
鑒于本站稿件來源廣泛、數(shù)量較多,如涉及作品內(nèi)容、版權(quán)等問題,請與本站聯(lián)系并提供相關(guān)證明材料:聯(lián)系電話:0571-89719789;郵箱:1271141964@qq.com。