唯一本地跑1280億參數(shù)大模型!AMD銳龍AI Max+ 395重磅升級(jí)
7月30日消息,AMD Zen5架構(gòu)的銳龍AI Max+ 395,是第一個(gè)可以在本地運(yùn)行700億參數(shù)AI大模型的平臺(tái),當(dāng)然需要搭配128GB統(tǒng)一內(nèi)存,而現(xiàn)在,AMD奉上重磅升級(jí),1280億參數(shù)大模型都可以在本地運(yùn)行了!
當(dāng)然,能做到這一點(diǎn)的還是只有銳龍AI Max+ 395,還是必須搭配128GB統(tǒng)一內(nèi)存,并分配96GB作為顯存,而且必須在Vulkan llama.cpp環(huán)境下。
驅(qū)動(dòng)方面需要搭配還在測(cè)試階段的25.10 RC 24版本,下個(gè)月初將會(huì)變成正式版25.8.1。
這使得銳龍AI Max+ 395成為第一個(gè)能在本地運(yùn)行1090億參數(shù)的Meta Llama 4 Sout大模型的平臺(tái),體積多達(dá)66GB,活躍參數(shù)最多170億,并支持Vision、MCP。
這得益于該模型使用了混合專(zhuān)家(MoE)模式,每次只激活模型的一部分,從而保持性能可用,銳龍AI Max+ 395實(shí)測(cè)可以做到每秒15 Tokens。
同時(shí),銳龍AI Max+ 395還可以跑68GB體積、1230億參數(shù)的Mistral Large,至于18GB、300億參數(shù)的Qwen3 A3B、17GB、270億參數(shù)的Google Gemma,自然更是不在話(huà)下。
當(dāng)然,銳龍AI Max+ 395還支持各種各樣的模型尺寸、量化格式,包括GGUF。