隨著科技的飛速發(fā)展,人工智能(AI)已經(jīng)不再是遙不可及的未來科技,而是逐步融入我們生活的各個角落。從智能家居的便捷操控,到線上服務的智能推薦,再到醫(yī)療、教育等行業(yè)的深度應用,AI正以其獨特的魅力改變著世界。然而,對于許多普通人而言,AI似乎仍然是一個充滿神秘感的高科技領域。那么作為普通人,我們該如何嘗鮮AI技術呢?
以網(wǎng)頁版AI為代表的“云端AI”
當我們提到AI時,相信很多人的腦海中都會浮現(xiàn)出一個名字——ChatGPT。沒錯,就是那個在科技圈掀起軒然大波的聊天
機器人。它的發(fā)布,仿佛一道璀璨的閃電,照亮了AI領域的夜空,讓我們真切地感受到了人工智能的無限可能。
ChatGPT是一款集成了尖端自然語言處理技術與深度學習能力的聊天機器人,它宛如一位博學多才的全能顧問,無論在哪個領域,都能針對您的問題提供詳盡的解答。對于內容創(chuàng)作者而言,ChatGPT更是一位不可或缺的助手,它能生成高質量的圖片、編寫精準的代碼、構思富有創(chuàng)意的文案、制作專業(yè)的PPT,并對文檔進行潤色,使文章內容更加出色。當然這些僅僅是ChatGPT功能的冰山一角,各位可以去親自體驗一番,了解它真正的實力。
從使用角度來說,ChatGPT使用起來非常簡單。我們只需要打開網(wǎng)頁,登錄賬號就可以享受到相關的AI功能。
值得一提的是,在今年4月,OpenAI宣布ChatGPT(3.5版本)免費了。也就是說如果你只是想體驗ChatGPT 3.5版本的話,連賬號也不需要,只要打開ChatGPT的網(wǎng)頁就可以了。
如果你目前無法使用ChatGPT的話,國內也有很多廠商推出了類似ChatGPT的產(chǎn)品,比如百度的文心一言。根據(jù)百度官方的介紹,文心大模型4.0綜合能力和GPT-4相比毫不遜色。文心一言的使用方式和ChatGPT類似,也是只需要打開網(wǎng)頁,登錄百度賬號就可以享受到相關的AI功能。目前文心大模型3.5免費開放,文心大模型4.0則需要購買會員才可以使用。國內除了文心一言,還有其他一系列AI應用,如通義千問、豆包、智譜清言、騰訊混元以及訊飛星火等,這些AI應用在使用方法上是大同小異的。
當然以上這些其實都屬于“云端AI”的范疇。“云端AI”簡單來說就是將AI相關的數(shù)據(jù)處理放在服務器上跑,用戶只需要通過網(wǎng)頁、應用程序輸入指令即可。這種部署模式有三個好處:
1、便宜:目前云端算力成本并不算太高,因此很多“云端AI”是免費開放的,就算是收費的會員,價格也不算太貴。以文心一言會員VIP為例,目前一個月也只要49.9元(連續(xù)包月,可隨時取消)。
2、不挑設備:AI既然是放在服務器上跑,那么對于用戶使用的終端基本就沒什么性能要求了。畢竟找個能正常訪問網(wǎng)頁的電腦還是很容易的。
3、易用:由于“云端AI”的部署、維護、升級等工作是由廠商負責,所以對于用戶來說基本是“即開即用”,往往只需要點開個網(wǎng)頁登錄賬號就能直接使用AI功能。
基于現(xiàn)有硬件本地部署AI
雖然“云端AI”有諸多優(yōu)勢,但還是有一個問題不能忽視,那就是數(shù)據(jù)私密性。此前三星就被曝出因ChatGPT而泄露芯片機密。當時因為三星員工直接將企業(yè)機密信息以提問的方式輸入到ChatGPT中,導致相關內容進入學習數(shù)據(jù)庫,從而造成信息泄露。對于這種情況,本地部署大模型其實是個很好的解決辦法。
由于本地部署大模型是將AI放到本地設備上跑,相關的信息并不會發(fā)送到其它服務器上。所以當我們用這種方式處理個人隱私信息或者企業(yè)機密信息時就無需擔憂信息外泄的風險。
不過從另一個方面看,本地設備的算力性能往往不如服務器,因此只有部分性能強的設備才適合本地部署大模型。
以英偉達發(fā)布的Chat With RTX為例,Chat With RTX 是一款基于語言大模型的應用程序,可讓用戶便捷連接到自己的內容(文檔、筆記、視頻或其他數(shù)據(jù)),利用RAG(檢索增強生成)、TensorRT-LLM 和 RTX 加速,全部在用戶個人的 Windows RTX PC 或工作站上本地運行,獲得快速、安全的結果。
其在硬件方面主要就兩點要求:
1、擁有8GB以上顯存的RTX 30或RTX 40系列顯卡。當然同規(guī)格的專業(yè)顯卡也可以。
2、電腦內存超過16GB。
對于顯卡來說,即使是2022年發(fā)布的RTX 3050也能滿足相關需求。RTX 3050基本可以算是最近幾年“游戲電腦”的基本配置了,所以目前很多現(xiàn)有的 “游戲電腦”都能符合這樣的配置要求。
如果你想要部署其它本地大模型,硬件配置要求可能會稍微高一點。簡單來說大模型參數(shù)量越大,需要的顯存就越多。假設你使用的顯卡其顯存大小為16GB,那么想要本地部署7B以下參數(shù)量級的大模型應該是問題不大的。
簡單總結一下,這種部署模式有兩個優(yōu)點:
1、數(shù)據(jù)在本地計算,無需擔心信息外泄。
2、大多數(shù)最近幾年購買的“游戲電腦”基本都可以跑,不需要額外購置新設備。
通過AI PC本地部署大模型
早在2023年9月,英特爾CEO帕特·基辛格在硅谷提出了PC的革命性概念——AI PC。英特爾也是最先提出AI PC概念的廠商。AI PC簡單來說就是能玩轉AI功能的PC。
具體來說,AI PC集成了中央處理器(CPU)、圖形處理器(GPU)和神經(jīng)網(wǎng)絡處理單元(NPU),每種處理器都具有特定的AI加速功能。NPU是一種專用加速器,它能高效地在PC上直接處理人工智能和機器學習(ML)任務,而不是將數(shù)據(jù)發(fā)送到云端進行處理。因此用AI PC跑AI也無需擔憂信息外泄的風險。
相較于常規(guī)的游戲電腦,AI PC在輕薄與便攜性方面展現(xiàn)出了顯著的優(yōu)勢。這主要歸因于游戲電腦通常需要配備獨立顯卡,而這類顯卡不僅體積龐大,還需要配備龐大的散熱模組來應對其散熱需求,進而需要更高功率的電源來保障供電穩(wěn)定。因此,游戲電腦在設計上往往顯得更為厚重,便攜性相對較差。而AI PC則能憑借其更為緊湊的設計,為用戶提供更為輕便的使用體驗。
所以對于工作中需要用到AI,且需要經(jīng)常到處跑的人來說,AI PC會是個不錯的選擇。畢竟如果可以選的話,應該沒多少人愿意背著“板磚”(游戲電腦)出門吧?
目前市面上的AI PC按所用處理器劃分可以分成四個主要陣營,分別是蘋果、英特爾、AMD、高通。
蘋果:蘋果在AI領域的布局其實挺早,只不過蘋果似乎不太喜歡AI這個標簽,搞出來的成果往往會以“機器學習”這類更細化的名字命名。比如蘋果在2017年推出了Core ML框架,這是蘋果為其開發(fā)者準備的機器學習框架。支持iOS、MacOS、tvOS和watchOS。也就說是在蘋果生態(tài)內開發(fā)AI,基本不需要考慮兼容性等問題,可以按照統(tǒng)一的規(guī)范進行開發(fā)。另外蘋果從M1芯片開始推出了“統(tǒng)一內存”的概念,使用統(tǒng)一內存跑大模型在帶寬和容量方面會有明顯優(yōu)勢。
英特爾:英特爾專為AI PC推出了英特爾酷睿Ultra處理器,在這款處理器中除了擁有CPU、GPU以外,還集成了用于客戶端的片上AI加速器“神經(jīng)網(wǎng)絡處理單元(NPU)”。不過需要說明的是,通常并不是只有NPU來處理AI應用,CPU、GPU也會承擔對應的AI加速功能。
AMD:AMD的AI PC處理器利用了三種計算引擎:基于Zen架構的CPU、基于AMD RDNA的集成或獨立GPU、以及基于AMD XDNA的AI引擎(NPU)。XDNA是該公司在收購Xilinx后提出的新架構。它是一種自適應數(shù)據(jù)流架構,被認為可以大幅度改變PC體驗。AMD XDNA還可以優(yōu)化AI算法運行效率,進而減少電耗。
高通:近期微軟推出了基于高通驍龍 X Elite和驍龍 X Plus處理器的AI PC產(chǎn)品Surface Pro和Surface Laptop。微軟的AI PC在宣傳上似乎更偏向于“生態(tài)賦能”。具體來說,英特爾、AMD在宣傳AI PC的時候往往會重點介紹AI的本地化部署優(yōu)勢。而微軟似乎并不太在乎本地部署AI這件事。比如微軟在發(fā)布會時重點介紹的Copilot,其中的不少功能是需要將數(shù)據(jù)上傳到服務器進行處理,也就是相當于在走“云端AI”的路子。不過對于微軟來說也可以理解,畢竟微軟是一個系統(tǒng)廠商,它肯定還是希望推進Windows和Copilot生態(tài)的發(fā)展。
結語
1、對于想在電腦上嘗鮮AI技術的人來說,類似ChatGPT、文心一言之類的“云端AI”是首選。畢竟價格便宜而且使用起來也很簡便。
2、對于擔憂信息外泄風險的人來說,基于現(xiàn)有硬件本地部署AI是個不錯的選擇。其優(yōu)勢在于無需額外購置設備,擁有一臺“游戲電腦”通常就能滿足需求。缺點在于這類“游戲電腦”往往缺乏便攜性,不便于移動使用。
3、對于上班、出差,而且還需要使用AI的人來說,AI PC會是個不錯的選擇。畢竟AI PC普遍輕薄、便攜,帶AI PC出差可以顯著減輕我們肩膀上的壓力。