【中國智能制造網 智造快訊】備受關注的“人機大戰(zhàn)”——柯潔VS AlphaGo2.0已經結束了,但人工智能的黑箱之惑還沒有得到有效解決。某種程度上,人們對于AI黑箱問題的探索十分類似于人類對于自身大腦運作機制的探索。我們可以本能地相信大腦做出的決定,但是我們能不假思索地信任AI的判斷嗎?
備受關注的“人機大戰(zhàn)”——柯潔VS AlphaGo2.0已經結束將近十天了,人們對這場歷史性對決的討論仍在繼續(xù)。面對人工智能3比0完勝人類的比賽結果,有些人提出了這樣的觀點:這場比賽無論哪一方獲勝,其實都是人類的勝利,因為人工智能也是人類的發(fā)明創(chuàng)造。這一說法當然有其合理性,但是在人工智能黑箱問題尚未得到解決的今天,這說法還是無可避免地帶著一絲自我安慰的色彩。
困擾學界多年的AI黑箱之惑
人工智能黑箱問題并不是在近幾年圍棋程序屢勝人類之后才浮出水面,事實上,它已經困擾學界多年了。
美國卡內基梅隆大學機器人學兼職教師的Pomerleau早在26年前就開始了對黑箱問題的研究,那時他還是卡內基梅隆大學機器人技術研究生。他在悍馬里安裝了一臺編程過的計算機,可以通過攝像機記錄的信息解讀路況,并儲存他對各種路況作出的反應。Pomerleau希望這臺機器能夠獲得更多關聯獨立控制駕駛。每一次的實驗中,Pomerleau 都會運行系統(tǒng)幾分鐘,然后讓汽車自行駕駛,一切都很順利。但是,有一次悍馬靠近一座橋時突然向一邊急轉彎。Pomerleau趕緊抓住方向盤才得以避免這場車禍。經過分析,Pomerleau弄清了原因:復雜如神經網絡般的電腦程序一直把長滿草的路邊當向導,所以突然出現的大橋迷惑了它。而二十六年之后的今天,人工智能應用愈加發(fā)達和普遍,黑箱問題的破解難度也增加了許多,緊迫性也日益凸顯。
學界目前對AI黑箱問題的幾個解決辦法
AI黑箱問題這么多年都沒有解決,是不是意味著人類對其束手無策呢?也不盡然。目前,學界已經提出了幾種解決辦法。
創(chuàng)業(yè)公司OptimizingMind 發(fā)明了一項能觀察智能機器決策過程的技術?!≡撍惴ǖ哪康氖莿?chuàng)造“透明訪問”系統(tǒng)以呈現機器學習是如何做出預期的。該系統(tǒng)以人腦的神經模型為基礎,能把任何深度網絡轉化為該系統(tǒng)的模式。其目的是探索人工智能行為的潛在預期,并且找出人工智能思維模式的哪個方面對決策影響大。它可以為工程師大幅減少機器開發(fā)的時間,幫企業(yè)節(jié)省資源。
斯坦福大學的科學家則開發(fā)了一種神經網絡錯誤檢查工具Reluplex。這個新工具的用戶可以詢問應用了這個神經網絡的系統(tǒng),有關其屬性的具體問題。但是它仍然無法測試有數百萬個節(jié)點的網絡。而Reluplex本身仍然需要獨立驗證。 盡管如此,研究人員預期會有許多可能的用途。
某種程度上,人們對于AI黑箱問題的探索十分類似于人類對于自身大腦運作機制的探索,這大概是由于人類在開發(fā)人工智能時借鑒和模擬了人類的大腦和神經系統(tǒng)。目前這兩個領域對各自的研究對象都還是知之甚少。我們不甚了解自己的大腦是如何運作的,但我們本能地相信它。同樣地,我們也不甚了解AI是如何做出各種決定的,但是我們能不假思索地相信它嗎(雖然大多數時候這些決定是合理的)?恐怕很難。因此,在大規(guī)模開發(fā)和利用人工智能之前,黑箱之惑是個需要盡早攻克的難題。這一問題得不到有效解決,AI普及推廣之路上的疑云便會持久存在。
版權與免責聲明:
凡本站注明“來源:智能制造網”的所有作品,均為浙江興旺寶明通網絡有限公司-智能制造網合法擁有版權或有權使用的作品,未經本站授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智能制造網”。違反上述聲明者,本站將追究其相關法律責任。
本站轉載并注明自其它來源(非智能制造網)的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。如其他媒體、平臺或個人從本站轉載時,必須保留本站注明的作品第一來源,并自負版權等法律責任。如擅自篡改為“稿件來源:智能制造網”,本站將依法追究責任。
鑒于本站稿件來源廣泛、數量較多,如涉及作品內容、版權等問題,請與本站聯系并提供相關證明材料:聯系電話:0571-89719789;郵箱:1271141964@qq.com。