www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 廠商動(dòng)態(tài) > 英特爾

兩年前,英特爾酷睿Ultra平臺(tái)問世促使PC行業(yè)迅速步入AI PC時(shí)代,同時(shí)也掀起了PC行業(yè)新一輪創(chuàng)新風(fēng)潮。然而相較以往的硬件體驗(yàn)與產(chǎn)品形態(tài)創(chuàng)新而言,立足于AI技術(shù)的創(chuàng)新主要來自于應(yīng)用側(cè)。不同領(lǐng)域AI應(yīng)用大量涌現(xiàn),使得AI在創(chuàng)造力、高效性等方面展現(xiàn)出了無與倫比的優(yōu)勢。

不過在過去一年多的時(shí)間里,AI PC行業(yè)雖然發(fā)展迅速,但始終缺乏一個(gè)真正的爆點(diǎn)。而年初DeepSeek國產(chǎn)大語言模型落地,則成為了AI PC爆發(fā)的契機(jī)。作為一個(gè)完全開源和免費(fèi)的國產(chǎn)推理模型,DeepSeek是真正能夠讓每個(gè)人都實(shí)現(xiàn)低成本部署本地AI助手的大語言模型,尤其是使用英特爾酷睿Ultra平臺(tái)AI PC去做部署的話,不僅可以實(shí)現(xiàn)零門檻快速部署,同時(shí)借助英特爾酷睿Ultra平臺(tái)出色的AI算力加持,整體體驗(yàn)更加出色。

此外,月之暗面Kimi推出的160億參數(shù)大模型moonlight-16B-A3B-Instruct也是非常火的一款開源模型。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

所以今天我們就來看看如何使用英特爾酷睿Ultra平臺(tái)AI PC,來快速部署并使用DeepSeek-R1大語言模型和moonlight-16B-A3B-Instruct大語言模型,同時(shí)我們也可以看看整體的性能表現(xiàn)到底如何?

·部署平臺(tái)硬件配置信息

本次我們使用Ollama以及Flowy這兩款軟件對DeepSeek-R1進(jìn)行了本地化部署。而moonlight則是通過Miniforge部署。這次使用的硬件平臺(tái)配置如下:

CPU:英特爾酷睿Ultra 5 225H

GPU:英特爾銳炫130T核顯

內(nèi)存:32GB LPDDR5X

硬盤:1TB PCIe 4.0固態(tài)硬盤

系統(tǒng):Windows 11 24H2(26100.2161)

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

可以看到,從硬件配置來看,使用酷睿Ultra平臺(tái)AI PC部署DeepSeek-R1的成本并不高,酷睿Ultra 5 225H處理器+銳炫130T核顯這樣的主流配置即可實(shí)現(xiàn),并不需要一味上高端平臺(tái),這對于AI PC向大眾用戶普及無疑有著深遠(yuǎn)意義。

接下來,我們看看如何在自己的AI PC上部署一個(gè)能夠在不聯(lián)網(wǎng)情況下也能使用的、更加安全、成本更低的“DeepSeek AI助手”,同時(shí)也看看銳炫130T核心在運(yùn)行DeepSeek-R1大模型進(jìn)行推理時(shí)會(huì)有怎樣的表現(xiàn)?

·借助Ollama或Flowy輕松部署本地AI助手

「預(yù)先準(zhǔn)備」

在開始部署DeepSeek-R1之前,大家需要先做兩個(gè)準(zhǔn)備:

其一,將英特爾銳炫GPU驅(qū)動(dòng)升至當(dāng)前最新版本。比如筆者在撰寫這篇文章前就將銳炫130T核顯的驅(qū)動(dòng)更新到了6559版本?!?a class="custom-link ">點(diǎn)擊此處進(jìn)入官網(wǎng)驅(qū)動(dòng)下載頁面】

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

其二,下載Ollama或Flowy軟件。選擇用哪個(gè)軟件主要看自己的喜好和習(xí)慣。Ollama默認(rèn)需要通過簡單的命令來運(yùn)行和使用大模型,上手有一點(diǎn)點(diǎn)門檻,但下載、部署模型基本不受限制;而Flowy則直接是可視化軟件,安裝之后即插即用,只是目前所能部署的大語言模型種類有限。

另外我們可以【直接在魔搭社區(qū)或Github下載】針對英特爾酷睿Ultra平臺(tái)優(yōu)化過的Ollama。

Flowy軟件的下載地址可以【點(diǎn)擊此處進(jìn)入

「Ollama的安裝與部署」

做好準(zhǔn)備之后,我們先看看如何用Ollama來將DeepSeek-R1部署到我們自己的AI PC上。

第一步:將下載好的Ollama綠色安裝文件解壓縮,并拷貝到容量空間更大的硬盤里。之后如下圖所示點(diǎn)擊start-ollama.bat運(yùn)行ollama本地服務(wù)器。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

成功運(yùn)行后會(huì)彈出如下圖所示的命令行窗口。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

第二步:打開「Windows PowerShell」或「終端」或「命令提示符」窗口。直接通過Windows系統(tǒng)搜索即可,這三個(gè)習(xí)慣用哪個(gè)就用哪個(gè)。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

下面我們以命令提示符窗口為例:

首先通過:

「cd C:\修改為你解壓后?件的位置\ollama-ipex-llm-0.5.4-20250211」

這條命令進(jìn)入ollama文件夾。

筆者直接放在C盤根目錄,所以直接輸入cd C:\ollama-ipex-llm-0.5.4-20250211即可。

之后通過:

「ollama run deepseek-r1:7b」

這條命令下載并部署deepseek模型。如果想要部署不同規(guī)模的DeepSeek-R1,只需要更改冒號(hào)后面的數(shù)字即可,比如14b、32b等等。

完成上述步驟之后,ollama會(huì)自動(dòng)開始下載并部署大模型,期間無需做任何操作。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

第三步:等待下載完成之后,彈出「Send a massage」之后,用戶就可以直接使用剛剛部署好的DeepSeek-R1大模型了。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

另外大家可以打開任務(wù)管理器,看看GPU的Compute是否已經(jīng)被占滿,占滿即證明成功在酷睿Ultra AI PC上完成了DeepSeek-R1的部署。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

此外,ollama并不是只支持命令式操作,用戶可以通過Edge或Chrome瀏覽器中的「Page Assist」擴(kuò)展程序打造Web UI界面。也可以下載「Chatbox AI」部署客戶端。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

這里簡單說一下Chatbox的使用方法,下載安裝完成之后,在保持ollama本地服務(wù)器運(yùn)行的狀態(tài)下,按照下面兩張圖紅框所示進(jìn)行設(shè)置,之后就可以通過Chatbox來使用DeepSeek-R1了。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

判斷是否成功依然是打開任務(wù)管理器,查看GPU的Compute占用情況,下圖是筆者部署完成之后,使用DeepSeek-R1時(shí)GPU Compute被占滿,這種狀態(tài)就證明部署成功。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

另外我們也查看了14B模型的token生成情況,可以看到首個(gè)token生成速度僅為2031毫秒,也就是2秒多一點(diǎn)點(diǎn),速度非常快。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

「Flowy的安裝與部署」

相比Ollama而言,通過Flowy部署DeepSeek-R1就相當(dāng)簡單了。下載安裝Flowy之后,打開軟件找到本地模型,默認(rèn)提供了七種常用大語言模型。目前DeepSeek-R1支持7B、8B、14B以及32B四種,直接下載部署即可使用。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

Flowy在運(yùn)行DeepSeek-R1時(shí)同樣會(huì)借助英特爾銳炫GPU來進(jìn)行推理,Compute也會(huì)被占滿。借助銳炫GPU出色的AI計(jì)算加速能力,雖然會(huì)比云端服務(wù)的生成速度慢一些,但是勝在斷網(wǎng)也能用,而且更加安全、更加私密。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

另外筆者對比了DeepSeek-R1:7B和14B的運(yùn)行速度,下面兩幅Gif圖都是1倍速錄制,第一張圖為7B,生成速度更快,但是最終結(jié)果呈現(xiàn)的顆粒度不夠細(xì)膩;第二張圖為14B,生成速度慢一些,但是最終結(jié)果呈現(xiàn)的更加完整、更富有邏輯性。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

·本地部署moonlight-ipex-llm大模型

moonlight-ipex-llm也是非常適合英特爾酷睿Ultra平臺(tái)使用的本地AI大模型,其后綴的ipex-llm就代表了它是支持英特爾ipex-llm框架的,而且整體部署方式比較簡單,無需科學(xué)上網(wǎng)。另外moonlight實(shí)際上就是之前非?;鸬脑轮得鍷imi推出的160億參數(shù)大模型,本地部署之后就相當(dāng)于有了一個(gè)斷網(wǎng)也能用的Kimi AI助手。

在部署之前我們要先準(zhǔn)備三個(gè)文件:

首先我們需要【點(diǎn)擊此處進(jìn)入Github】,分別點(diǎn)擊下圖紅框里的convert.py和run_moonlight-16b-a3b-instruct.py兩個(gè)文件,并將代碼分別復(fù)制到兩個(gè)記事本中。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

之后保存代碼,并將兩個(gè)記事本的文件命名以及.txt文件擴(kuò)展名分別改成convert.py和run_moonlight-16b-a3b-instruct.py,如下:

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

其次,下拉Github頁面或【直接點(diǎn)擊此處下載miniforge】,這是一款輕量化的Python環(huán)境與包管理工具:

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

這里可以根據(jù)自己的系統(tǒng)來選擇不同版本,這次我們使用Windows系統(tǒng)部署,所以直接下載最下面的Windows版即可。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

接下來先安裝Miniforge.exe,然后建議把之前下載好的convert.py和run_moonlight-16b-a3b-instruct.py拷貝到C盤根目錄,或者自定義位置也行,不過要記住兩個(gè)文件的路徑。

做好準(zhǔn)備工作之后,在開始菜單里的“推薦的項(xiàng)目”里找到Miniforge Prompt并打開。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

稍等一會(huì)兒顯示盤符路徑之后依次復(fù)制如下代碼來完成模型的下載以及轉(zhuǎn)換(每輸入完一段代碼都要敲回車)

cd /

conda create -n ipex-llm python=3.11 libuv

【輸入第二條代碼之后稍等一會(huì),然后輸入y,并等待環(huán)境安裝完成】

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

conda activate ipex-llm

【輸入上面代碼之后,前面的base會(huì)變成ipex-llm】

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

之后依次輸入下面兩行代碼下載moonlight-16B-A3B-Instruct大語言模型:

pip install modelscope

modelscope download --model moonshotai/Moonlight-16B-A3B-Instruct --local_dir ./Moonlight-16B-A3B-Instruct

【如下圖所示,紅框標(biāo)出的大模型文件一共有27個(gè),而全部文件有45個(gè),下載完成后Processing 45 items:后面的百分?jǐn)?shù)會(huì)達(dá)到100%】

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

模型下載根據(jù)自身網(wǎng)速快慢會(huì)不同,耐心等待下載結(jié)束后,繼續(xù)依次輸入下方3條代碼:

pip install --pre --upgrade ipex-llm[xpu_2.6] --extra-index-url https://download.pytorch.org/whl/xpu -i https://pypi.tuna.tsinghua.edu.cn/simple

pip install tiktoken blobfile transformers==4.45 trl==0.11 accelerate==0.26.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

pip install --pre --upgrade ipex-llm

此時(shí)就完成了moonlight-16B-A3B-Instruct大模型的下載與環(huán)境部署,之后我們需要確認(rèn)大模型文件的位置,比如筆者是直接在C盤根目錄中的。

接下來還記得我們之前保存的convert.py文件嗎?此時(shí)我們需要用記事本打開它,將下圖紅框所示位置的兩處「C:\Users\Le\Documents」修改為你自己下載的大模型文件的位置,比如筆者是下載到了C盤根目錄,所以就修改為「C:\Moonlight-16B-A3B-Instruct」和「C:\Moonlight-16B-A3B-Instruct-converted」就好了,修改完成之后直接保存即可。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

之后運(yùn)行下方代碼進(jìn)行模型轉(zhuǎn)換,整個(gè)過程全自動(dòng),無需做任何操作。

python convert.py

稍等片刻再次彈出「(ipex-llm)c:\>」,模型轉(zhuǎn)換工作就完成了。之后將「C:\Moonlight-16B-A3B-Instruct」中的所有?件復(fù)制?「C:\Moonlight-16B-A3B-Instruct-converted」內(nèi),并在提?存在重復(fù)?件時(shí)跳過所有重復(fù)?件,一定要點(diǎn)擊跳過,不要覆蓋,大模型到此就完成了部署。

接下來再依次輸入下面4條代碼運(yùn)行模型,即可愉快地使用本地moonlight-16B-A3B-Instruct AI助手了。

conda activate ipex-llm

set SYCL_CACHE_PERSISTENT=1

set SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS=1

python run_moonlight-16B-A3B-instruct.py

之后如果想再次使用的話,只需要從conda activate ipex-llm這條指令開始即可。

【重要】此外,如果運(yùn)行最后一條代碼后出現(xiàn)下方報(bào)錯(cuò)提示:

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

那么可以在「C:\Moonlight-16B-A3B-Instruct-converted」文件夾內(nèi),找到modeling_deepseek.py文件,通過記事本打開之后,Ctrl+F呼出搜索欄,輸入max_cache找到下圖代碼,將get_seq_length()中的「seq」修改為「max」,之后保存,再輸入python run_moonlight-16B-A3B-instruct.py命令,即可成功運(yùn)行大模型。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

與Ollama和Flowy不同的是,moonlight工作時(shí)更加依賴GPU共享顯存,而Compute負(fù)載非常低。從下圖可以看到,moonlight-16B-A3B-instruct進(jìn)行推理時(shí),GPU顯存占用率會(huì)明顯上升,另外內(nèi)存的占用率也不低。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

這里需要補(bǔ)充說明的一點(diǎn)是,在部署moonlight時(shí),之前使用的Ultra 5 225H平臺(tái)已歸還廠商,所以我們找來了另外一臺(tái)Ultra 9 285H+銳炫140T核顯的平臺(tái)。雖然二者在傳統(tǒng)性能上差異不小,但單純的AI算力方面其實(shí)相差并不大。

通過moonlight-16B-A3B-instruct大模型進(jìn)行編程或問答,編程時(shí)的First token耗時(shí)僅為4.01毫秒,平均速度達(dá)到了39.64tokens/s,速度可以說是相當(dāng)快了。而問答時(shí)的First token耗時(shí)為12.14毫秒,略高一些,但是平均速度也能達(dá)到32.83tokens/s,看來支持英特爾ipex-llm框架的模型跑到酷睿Ultra平臺(tái)上確實(shí)是速度相當(dāng)快,滿足日常使用沒有任何效率上的不足。(下方GIF圖均為1倍速錄制)

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

·英特爾酷睿Ultra 200H平臺(tái)理論AI性能測試

了解了如何在酷睿Ultra 200H AI PC上部署本地DeepSeek-R1大語言模型以及如何使用之后,我們不妨看看酷睿Ultra 200H的理論AI算力如何?以及它為什么能夠在本地運(yùn)行時(shí)也能夠提供非常快速的生成體驗(yàn)?

「UL Procyon理論與應(yīng)用測試」

首先來看看UL Procyon的CPU、GPU、NPU理論性能測試。在Intel OpenVINO加速下,英特爾酷睿Ultra 5 225H的CPU整數(shù)AI算力評分368,GPU Float16 AI算力評分799,NPU Float16 AI算力評分383。對比第一代酷睿Ultra 9 185H平臺(tái),第二代酷睿Ultra 5 225H平臺(tái)的CPU、GPU、NPU AI算力分別提升323%、71%以及141%!

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

接下來我們看看酷睿Ultra 5 225H平臺(tái)在AI文本生成測試中的表現(xiàn)。下圖可以看到,UL Procyon文本生成測試中也完全占用了GPU Compute。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

該項(xiàng)測試主要包含Phi-3.5、Mistral 7B、Llama 3.1以及Llama 2四種大語言模型,酷睿Ultra 5 225H平臺(tái)分別得分648、616、586以及598分。

Phi-3.5平均生成速度為17.97 tokens/s,Mistral 7B平均生成速度為12.28 tokens/s,Llama 3.1平均生成速度為11.44 tokens/s,Llama 2平均生成速度為7.2 tokens/s。

「tokens即大語言模型生成文本、字段、符號(hào)的單位,生成速度用tokens/s表示。比如,“我們今天學(xué)習(xí)AI知識(shí)?!边@句話,大語言模型會(huì)對句子信息拆分成:我們丨今天丨學(xué)習(xí)丨AI丨知識(shí)丨。丨這些單字、詞以及句號(hào)就是1個(gè)token」

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

酷睿Ultra 9 285H平臺(tái)則是搭載了銳炫140T核顯,不過CPU性能與Ultra 5 225H有比較大差異,但GPU方面其實(shí)相差不大,因此兩個(gè)平臺(tái)做AI來說整體性能差異感受并不明顯。

在Intel OpenVINO加速下,英特爾酷睿Ultra 9 285H的CPU整數(shù)AI算力評分439,GPU Float16 AI算力評分790,NPU Float16 AI算力評分366。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

接下來的AI文本生成測試中,酷睿Ultra 9 285H平臺(tái)分別得分661、632、619以及610分,整體比酷睿Ultra 5 225H要高一些。

具體到四個(gè)大語言模型的速度,Phi-3.5平均生成速度為18 tokens/s,Mistral 7B平均生成速度為11.78 tokens/s,Llama 3.1平均生成速度為11.38 tokens/s,Llama 2平均生成速度為6.87 tokens/s,與Ultra 5 225H平臺(tái)沒有明顯差異。所以無論是高配還是主流配置,第二代酷睿Ultra在AI應(yīng)用方面的體驗(yàn)整體表現(xiàn)都非常不錯(cuò),對于不同預(yù)算的朋友來說都能提供很好的AI計(jì)算能力。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

「MLPerf Client基準(zhǔn)性能測試」

接下來我們引入一個(gè)全新的測試——MLPerf Client基準(zhǔn)性能測試,這是由MLCommons開發(fā)的一款基準(zhǔn)測試工具,旨在評估個(gè)人電腦(包括筆記本、臺(tái)式機(jī)和工作站)上大型語言模型(LLMs)和其他AI工作負(fù)載的性能。它通過模擬真實(shí)世界的AI應(yīng)用場景,如AI聊天機(jī)器人和圖像分類等,為用戶提供清晰的性能指標(biāo),幫助用戶理解系統(tǒng)處理生成性AI工作負(fù)載的能力。

因?yàn)檫@款測試工具支持Intel OpenVINO加速,這可以使我們更好地了解酷睿Ultra平臺(tái)跑AI的實(shí)際表現(xiàn)。通過下圖可以看到,MLPerf在測試時(shí)同樣會(huì)占滿GPU Compute。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

MLPerf在測試時(shí)使用了Llama2-7B_INT4模型,總體來說對硬件的要求并不算高,F(xiàn)irst token時(shí)間不到1秒,平均速度為12.91 tokens/s,因此酷睿Ultra 5 225H平臺(tái)部署本地化AI是基本沒有性能方面的問題的。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

酷睿Ultra 9 285H平臺(tái)在MLPerf測試中,F(xiàn)irst token時(shí)間同樣不到1秒,平均速度為12.05 tokens/s,與酷睿Ultra 5 225H平臺(tái)無差別。

簡單又安全 用酷睿AI PC實(shí)現(xiàn)零門檻本地AI助手部署

·結(jié)語

DeepSeek、moonlight這些國產(chǎn)大語言模型的成功落地,對于AI PC在大眾層面的認(rèn)知和普及有著極為重要的推動(dòng)作用。此前人們可能只知道有AI PC這個(gè)概念,但具體是什么、怎么用、和傳統(tǒng)PC有怎樣的區(qū)別等等卻并不是很清楚。而DeepSeek、moonlight引發(fā)的探索熱情,則可以讓更多用戶了解這些問題的答案。

同時(shí),基于英特爾酷睿Ultra系列處理器打造的AI PC,可以說是性能體驗(yàn)最好、穩(wěn)定性最好、兼容性最好的本地化AI部署平臺(tái)。Ollama、Flowy、LM Studio、Miniforge等常用軟件全部支持,并且支持Intel OpenVINO加速,再加上酷睿Ultra 200系列平臺(tái)本身在CPU、GPU、NPU AI算力上幾乎都實(shí)現(xiàn)了翻倍,因此無論是安裝部署還是最終的使用以及性能體驗(yàn),都實(shí)現(xiàn)了低門檻、高效率,這對于AI PC未來的發(fā)展意義深遠(yuǎn),同時(shí)可以讓更多用戶更加輕松地將AI助手部署到自己的日常工作、學(xué)習(xí)、生活環(huán)境中。

此外,本地化AI應(yīng)用有著安全、隱私、便利、不依賴網(wǎng)絡(luò)以及低使用成本的特性,能夠讓用戶隨時(shí)隨地、安全私密地借助AI來提升自己的工作、學(xué)習(xí)效率。因此,如果你想將DeepSeek、moonlight這樣的大語言模型部署到本地使用,那么英特爾酷睿Ultra AI PC絕對是當(dāng)前非常不錯(cuò)的選擇。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動(dòng)力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉