9月9日,AMD Mini AI工作站創(chuàng)新分享沙龍?jiān)诰┱匍_,本次活動(dòng)旨在深入探討AI算力前沿趨勢(shì),分享AMD在Mini AI工作站領(lǐng)域的創(chuàng)新技術(shù)與應(yīng)用案例。
(相關(guān)資料圖)
在沙龍上,AMD大中華區(qū)市場(chǎng)營(yíng)銷副總裁紀(jì)朝暉首先分享了AMD在銳龍 AI Max+ 395處理器這一方面的新進(jìn)展。
銳龍 AI MAX+ 395處理器首發(fā)于2025年CES,紀(jì)朝暉介紹,這款處理器擁有16個(gè)高性能核心,最高頻率達(dá)5.1GHz,相當(dāng)于把桌面級(jí)處理器的性能裝進(jìn)了筆記本里;GPU方面則是集成了Radeon 8060S GPU,擁有40個(gè)RDNA 3.5計(jì)算單元,最高支持96GB顯存;此外,這款處理器還配備了50 TOPS算力的XDNA 2 NPU神經(jīng)處理單元,專門優(yōu)化AI推理任務(wù)。
據(jù)介紹,AMD銳龍 AI MAX處理器采用了一種名為高帶寬統(tǒng)一內(nèi)存的全新架構(gòu)(Unified Memory Architecture,UMA)。這種架構(gòu)打破了GPU顯存瓶頸,可有效降低數(shù)據(jù)延遲。
銳龍 AI MAX+ 395支持最高128GB的統(tǒng)一內(nèi)存,通過AMD的可變顯存技術(shù),能最高把其中的96GB分配給GPU專屬使用。
紀(jì)朝暉表示,Radeon 8060S GPU加96GB顯存的組合對(duì)于跑混合專家模型(Mixture of Experts, MoE)來說有著得天獨(dú)厚的優(yōu)勢(shì),根據(jù)AMD方面的測(cè)試,搭載了AMD銳龍AI MAX+ 395處理器的Mini AI工作站在iGPU滿載運(yùn)行情況下跑Meta Llama4-109B Scout多模態(tài)模型生成速度為14+ Tok/s;跑OpenAI GPT-oss-120B模型生成速度為40+ Tok/s;跑阿里Qwen3-235B模型生成速度為14+ Tok/s
為何96GB顯存如此重要,根據(jù)OpenAI官網(wǎng)上公布的文檔,如果是GPT-oss-120B開源大模型的話,顯存占用達(dá)到了80GB,也就是說如果顯存小于這個(gè)大小的話,這些開源大模型是沒法在本地來運(yùn)行的。
今年6月,OpenAI聯(lián)合創(chuàng)始人、深度學(xué)習(xí)專家安德烈·卡帕西(Andrej Karpathy)在一次主題演講上表示,軟件開發(fā)已進(jìn)入“Software 3.0”階段。
卡帕西提出,傳統(tǒng)的手寫代碼時(shí)代,即Software 1.0,以及訓(xùn)練神經(jīng)網(wǎng)絡(luò)權(quán)重的Software 2.0時(shí)代,正被“提示詞即程序”的Software 3.0所取代。自然語言正成為直接控制計(jì)算機(jī)的新編程接口。
此外,卡帕西也提出,2025年是AI Agent的元十年,意思是AI Agent需要十年時(shí)間才能真正成熟。
在這個(gè)背景下,基于AMD銳龍 AI Max+ 395的Mini AI工作站可以說是生逢其時(shí)。在今年7月于深圳舉行的AMD Mini AI工作站行業(yè)解決方案峰會(huì)上,已經(jīng)出現(xiàn)了超過20款的AMD銳龍AI Max+ 395 Mini AI工作站的產(chǎn)品,這些產(chǎn)品以更低的價(jià)格提供高達(dá)96GB的顯存,更低的總體擁有成本(Total Cost of Ownership,TCO),更小的體積提供給企業(yè)、中小企業(yè)、AI開發(fā)者一個(gè)可用的AI的端側(cè)、邊緣側(cè)理想的推理平臺(tái)。
紀(jì)朝暉表示,AMD不斷推動(dòng)讓銳龍 AI Max+ 395 Mini AI工作站賦能AI開發(fā)者、AI教育、超級(jí)個(gè)體、數(shù)據(jù)分析、家庭和私人空間等不同場(chǎng)景和行業(yè),依托AMD中國(guó)AI應(yīng)用創(chuàng)新聯(lián)盟上百個(gè)優(yōu)秀獨(dú)立軟件開發(fā)商(Independent Software Vendor,ISV)伙伴的支持基礎(chǔ)上,在硬件和軟件上共同推動(dòng)、賦能AI企業(yè)應(yīng)用的“最后一公里”。
最后,紀(jì)朝暉也特別提到AMD中國(guó)的一個(gè)特別合作伙伴波瀾AI(RlPPLE AI),他們?cè)卺槍?duì)AMD銳龍AI Max+395 Mini AI工作站打造了開發(fā)者套件,讓本地開發(fā)者能夠迅速的上手。
當(dāng)下波瀾AI的官網(wǎng)已經(jīng)上線,遠(yuǎn)程測(cè)試平臺(tái)功能已開放,該網(wǎng)站將逐步完善,會(huì)包括有工具文檔的整理、教程模板,和開發(fā)者互助協(xié)作社區(qū)等內(nèi)容。
紀(jì)朝暉稱,通過與波瀾AI的合作,AMD方面希望把銳龍AI Max+395平臺(tái)打造成為AI時(shí)代的樹莓派,讓AI Agent能夠快速在中國(guó)落地,并成熟和發(fā)展起來。
AMD大中華區(qū)AI市場(chǎng)經(jīng)理昝仲陽則分享了今年以來AI的三個(gè)發(fā)展趨勢(shì):第一個(gè)是自從DeepSeek出現(xiàn)帶火了MoE架構(gòu)之后,各家大模型企業(yè)都推出了自己的MoE架構(gòu)模型,MoE架構(gòu)本身參數(shù)量很大,因此運(yùn)行需要很大的顯存,但其激活的參數(shù)相對(duì)較小,因此只要有足夠的GPU算力,其推理速度是可觀的,這種情況就特別適合AMD銳龍AI MAX+ 395處理器,有足夠大的顯存,同時(shí)GPU能力又足夠強(qiáng),可以運(yùn)行別人加載不了的MoE模型,跑得還非???。
第二個(gè)發(fā)展趨勢(shì)是,以往像YOLO這樣的監(jiān)督學(xué)習(xí)模型,需要企業(yè)為每個(gè)特定任務(wù)投入大量人力進(jìn)行數(shù)據(jù)標(biāo)注,成本較高。而像通義千問這些端側(cè)的視覺語言模型(Vision Language Model, VLM)由于已在海量圖文數(shù)據(jù)上完成了預(yù)訓(xùn)練,具備了強(qiáng)大的通用視覺理解能力,對(duì)于企業(yè)而言,省去了為開發(fā)特定模型而進(jìn)行數(shù)據(jù)標(biāo)注的巨額成本,實(shí)現(xiàn)了‘開箱即用’的效果 。
第三個(gè)發(fā)展趨勢(shì)是今年出現(xiàn)了特別熱的模型上下文協(xié)議(Model Context Protocol,MCP)和Agent,由于更長(zhǎng)上下文的需求,對(duì)顯存的要求也更高了。而AMD銳龍AI Max+ 395 Mini AI工作站作為一臺(tái)售價(jià)在兩萬元以內(nèi)的消費(fèi)級(jí)機(jī)器,其最大96GB顯存是完全夠用的。
昝仲陽表示,Software 3.0時(shí)代真正改變了所有人的生活方式,用Vibe Coding的形式,再加上優(yōu)秀的Mini AI工作站,以及個(gè)人的專業(yè)知識(shí),就能做到以前做不到的事情。但他認(rèn)為AI并不會(huì)替代程序員或者人類的工作,只會(huì)加強(qiáng)人類的專業(yè)知識(shí),讓生產(chǎn)效率加倍,讓人類變得更強(qiáng)。
昝仲陽最后總結(jié),在AI的趨勢(shì)來了之后,大家普遍有兩種焦慮,第一種是顯存的焦慮,現(xiàn)在AMD銳龍AI Max+ 395處理器已經(jīng)幫大家解決了這種焦慮;第二種就是Token焦慮,所有的上傳下載,提示詞Prompt,MCP都要算Token,要算錢的,而現(xiàn)在通過Mini AI工作站這種產(chǎn)品形態(tài),就能以較小的占地空間,本地部署的方式來解決Token焦慮的問題,對(duì)于企業(yè)、個(gè)人和小團(tuán)隊(duì)來說都是非常有吸引力的。
沙龍活動(dòng)的現(xiàn)場(chǎng)展出了來自Abee、惠普、極摩客、銘凡、天鋇、首屆玲瓏、零刻、希未等廠商搭載銳龍AI Max+ 395 Mini AI工作站的產(chǎn)品。
這些產(chǎn)品形態(tài)各異,很多已經(jīng)在京東等電商平臺(tái)開售,現(xiàn)在主流的在京東大概1.3萬到1.5萬左右的價(jià)格。
憑借著高達(dá)96GB的顯存設(shè)計(jì),Radeon 8060S的集成GPU,以及x86 Windows的成熟生態(tài),AMD銳龍AI MAX+395已經(jīng)在炙手可熱的AI大模型領(lǐng)域先奪一城。
而搭載AMD銳龍AI Max+ 395的Mini AI工作站,依托AMD中國(guó)AI應(yīng)用創(chuàng)新聯(lián)盟ISV伙伴的支持基礎(chǔ),在軟硬件上共同推動(dòng)和賦能AI企業(yè)應(yīng)用的“最后一公里”。