www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 物聯(lián)網(wǎng) > 智能應(yīng)用
[導(dǎo)讀]大型語言模型 改變了自然語言處理(NLP) 通過生成類人的文本,回答復(fù)雜的問題,分析大量的信息,以令人印象深刻的準(zhǔn)確性。從客戶服務(wù)到醫(yī)學(xué)研究,他們能夠處理各種各樣的詢問并做出詳細(xì)的答復(fù),這使他們?cè)谠S多領(lǐng)域都具有無價(jià)之寶。然而,隨著LLMS用于處理更多的數(shù)據(jù),它們?cè)诠芾黹L(zhǎng)文檔和高效檢索最相關(guān)的信息方面遇到挑戰(zhàn)。

大型語言模型 改變了自然語言處理(NLP) 通過生成類人的文本,回答復(fù)雜的問題,分析大量的信息,以令人印象深刻的準(zhǔn)確性。從客戶服務(wù)到醫(yī)學(xué)研究,他們能夠處理各種各樣的詢問并做出詳細(xì)的答復(fù),這使他們?cè)谠S多領(lǐng)域都具有無價(jià)之寶。然而,隨著LLMS用于處理更多的數(shù)據(jù),它們?cè)诠芾黹L(zhǎng)文檔和高效檢索最相關(guān)的信息方面遇到挑戰(zhàn)。

盡管LLMS善于處理和生成類人的文本,但他們有一個(gè)有限的"上下文窗口"。"這意味著他們一次只能在內(nèi)存中保存一定數(shù)量的信息,這就很難管理很長(zhǎng)的文檔。對(duì)于LLMS來說,快速?gòu)拇笮蛿?shù)據(jù)集中找到最相關(guān)的信息也是一個(gè)挑戰(zhàn)。除此之外,LLMS還接受固定數(shù)據(jù)培訓(xùn),因此隨著新信息的出現(xiàn),它們可能會(huì)變得過時(shí)。為了保持準(zhǔn)確和有用,它們需要定期更新。

回收增加的一代 (RAG) (打開新窗口)應(yīng)對(duì)這些挑戰(zhàn)。該工作流中有許多組件,如查詢、嵌入、索引等。今天,讓我們來探索分塊策略。

通過將文檔分成較小的、有意義的段并將它們嵌入到向量數(shù)據(jù)庫中,Raga系統(tǒng)只能為每個(gè)查詢搜索和檢索最相關(guān)的塊。這種方法使LLMS能夠側(cè)重于具體信息,提高響應(yīng)的準(zhǔn)確性和效率。

在本文中,我們將更深入地探討分塊及其不同的策略,以及它們?cè)趦?yōu)化中的作用。

什么是塊?

"塊"是指將大數(shù)據(jù)源分解成更小、更容易處理的數(shù)據(jù)塊或"塊"。"這些塊存儲(chǔ)在向量數(shù)據(jù)庫中,可以根據(jù)相似性進(jìn)行快速有效的搜索。當(dāng)用戶提交查詢時(shí),向量數(shù)據(jù)庫會(huì)找到最相關(guān)的塊并將它們發(fā)送到語言模型。這樣,模型只能側(cè)重于最相關(guān)的信息,使其響應(yīng)更快、更準(zhǔn)確。

通過縮小需要查看的數(shù)據(jù)范圍,塊可以幫助語言模型更流暢地處理大型數(shù)據(jù)集,并提供精確的答案。

對(duì)于需要快速、準(zhǔn)確答案的應(yīng)用程序--比如客戶支持或合法文檔搜索--分塊是提高性能和可靠性的一個(gè)基本策略。

下面是在破布中使用的一些主要的分塊策略:

· 固定尺寸的塊塊

· 遞歸分塊

· 語義分塊

· 不間斷分塊

現(xiàn)在,讓我們深入探討每個(gè)分塊策略的細(xì)節(jié)。

1.固定尺寸的塊塊

固定大小的分塊包括將數(shù)據(jù)劃分為平均尺寸的部分,這樣就更容易處理大型文檔。

有時(shí)候,開發(fā)人員會(huì)在塊之間添加一些重疊,其中一個(gè)段的一小部分在下一個(gè)段的開頭被重復(fù)。這種重疊方法幫助模型在每個(gè)塊的邊界之間保留上下文,確保關(guān)鍵信息不會(huì)在邊緣丟失。這一戰(zhàn)略對(duì)于需要連續(xù)信息流的任務(wù)特別有用,因?yàn)樗鼓P湍軌蚋鼫?zhǔn)確地解釋文本和理解各部分之間的關(guān)系,從而使答復(fù)更加連貫一致,更符合實(shí)際情況。

上面的例子是 固定尺寸的塊塊 ,其中每一塊都用一種獨(dú)特的顏色來表示。綠色部分表示塊之間的重疊部分,確保模型在處理下一個(gè)塊時(shí)能夠訪問相關(guān)上下文。

這種重疊提高了模型處理和理解全文的能力,從而在任務(wù)(如摘要或翻譯)中產(chǎn)生了更好的性能,在這些任務(wù)中,保持跨塊邊界的信息流是至關(guān)重要的。

2.遞歸分塊

遞歸分塊法是一種方法,系統(tǒng)地將廣泛的文本劃分為較小的、可管理的部分,方法是反復(fù)地將其分解為亞塊。這一方法對(duì)于復(fù)雜或?qū)哟位奈臋n尤為有效,確保每個(gè)部分保持連貫性和完整的上下文。這個(gè)過程一直持續(xù)到文本達(dá)到適合有效處理的規(guī)模為止。

例如,考慮需要由具有有限上下文窗口的語言模型處理的冗長(zhǎng)文檔。遞歸分塊將首先將文檔劃分為主要部分。如果這些部分仍然太大,該方法將把它們進(jìn)一步劃分為子部分,并繼續(xù)這個(gè)過程,直到每個(gè)塊都符合模型的處理能力。這種分層分解保存了原始文檔的邏輯流和上下文,使模型能夠更有效地處理長(zhǎng)文本。

實(shí)際上,遞歸分塊可以使用各種策略實(shí)現(xiàn),例如根據(jù)文檔的結(jié)構(gòu)和任務(wù)的具體要求,根據(jù)標(biāo)題、段落或句子進(jìn)行分塊。

在圖中,文本被分成四個(gè)塊,每個(gè)塊以不同的顏色顯示,使用遞歸塊。文本被分解成更小的、可管理的部分,每個(gè)塊最多包含80個(gè)單詞。數(shù)據(jù)塊之間沒有重疊。顏色編碼有助于顯示內(nèi)容如何被分割成邏輯部分,使模型更容易處理和理解長(zhǎng)文本,而不丟失重要的上下文。

在理解了基于長(zhǎng)度的兩個(gè)分塊策略之后,現(xiàn)在是時(shí)候來理解一個(gè)分塊策略了,它更側(cè)重于文本的意義/上下文。

3.語義分塊

語義分塊是指根據(jù)內(nèi)容的意義或上下文將文本劃分為塊。這種方法通常使用?機(jī)器學(xué)習(xí) (打開新窗口) 或?自然語言處理 (NLP) (打開新窗口) 識(shí)別文本中具有類似含義的章節(jié)的技術(shù),例如句子嵌入,或 語義結(jié)構(gòu) .

在插圖中,每個(gè)塊由不同的顏色表示-藍(lán)色的人工智能和黃色的提示工程。這些塊是分開的,因?yàn)樗鼈儼瞬煌母拍?。這種方法保證模型能夠清楚地理解每個(gè)主題,而不把它們混在一起。

在這些策略中,不間斷分塊是一種強(qiáng)大的策略。在此策略中,我們利用LLMS(如GTP)作為分塊過程中的代理。而不是手動(dòng)決定如何劃分內(nèi)容,LLS主動(dòng)組織或劃分信息的理解輸入。在任務(wù)上下文的影響下,LLS確定了將內(nèi)容分解為可管理的片段的最佳方法。

插圖顯示了一個(gè)分塊代理將一個(gè)大的文本分解為更小的,有意義的片段。這個(gè)代理由AI提供動(dòng)力,它幫助他更好地理解文本,并將其劃分為有意義的塊。我們稱之為 不間斷分塊 與簡(jiǎn)單地將文本切成相等的部分相比,這是一種更聰明的處理文本的方法。

分塊策略比較

為了更容易理解不同的分塊方法,下表比較了固定大小的分塊、遞歸分塊、語義分塊和非固定分塊。它突出了每個(gè)方法如何工作,何時(shí)使用,以及它們的局限性。

重慶式描述方法最好的限制

固定尺寸的塊塊將文本分成大小相等的塊,而不考慮內(nèi)容。根據(jù)固定的字詞或字?jǐn)?shù)限制所創(chuàng)建的塊。簡(jiǎn)單的結(jié)構(gòu)化文本,其中上下文的連續(xù)性不那么重要??赡苁ド舷挛幕蚓渥?思想分裂。

遞歸分塊不斷地將文本分成較小的塊,直到它達(dá)到可管理的大小。分層分裂,如果太大的話進(jìn)一步分解。長(zhǎng)文件、復(fù)雜文件或分層文件(例如:技術(shù)手冊(cè))。如果章節(jié)過于寬泛,可能仍會(huì)失去上下文。

語義分塊根據(jù)意義或相關(guān)的主題將文本分成幾塊.使用NLP技術(shù),如句子嵌入組相關(guān)內(nèi)容。對(duì)背景敏感的任務(wù),其中一致性和專題連續(xù)性至關(guān)重要。需要NLP技術(shù);更復(fù)雜的實(shí)現(xiàn)。

不間斷分塊利用人工智能模型(如GTP)將內(nèi)容自主地劃分為有意義的部分。基于模型的理解和特定任務(wù)上下文的i驅(qū)動(dòng)分割。內(nèi)容結(jié)構(gòu)不同的復(fù)雜任務(wù),AI可以優(yōu)化分割??赡苁遣豢深A(yù)測(cè)的,需要調(diào)整。

結(jié)論

要提高LLMS,就必須有大規(guī)模的策略和抹布。分組有助于將復(fù)雜的數(shù)據(jù)簡(jiǎn)化為更小、更易于管理的部分,從而促進(jìn)更有效的處理,而LLMS則通過將實(shí)時(shí)數(shù)據(jù)檢索納入生成工作流來改進(jìn)??傮w而言,這些方法使LLMS能夠通過將有組織的數(shù)據(jù)與活躍的當(dāng)前信息合并起來,提供更精確、更符合上下文的答復(fù)。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

Aug. 26, 2025 ---- NVIDIA(英偉達(dá))近日推出的Jetson Thor被視為機(jī)器人的物理智慧核心,以Blackwell GPU、128 GB記憶體堆疊出2070 FP4 TFLOPS AI算力,是前...

關(guān)鍵字: 機(jī)器人 大型語言模型 AI算力

在物聯(lián)網(wǎng)設(shè)備數(shù)量突破千億級(jí)的今天,開發(fā)者對(duì)核心芯片的訴求已從單一功能轉(zhuǎn)向“全棧集成+生態(tài)協(xié)同”。樂鑫科技推出的ESP32憑借其獨(dú)特的“雙核架構(gòu)+無線雙模+開源生態(tài)”組合,成為智能家居、工業(yè)監(jiān)控、可穿戴設(shè)備等領(lǐng)域的首選方案...

關(guān)鍵字: ESP32 物聯(lián)網(wǎng)

在當(dāng)今數(shù)字化時(shí)代,人工智能(AI)和高性能計(jì)算(HPC)的迅猛發(fā)展對(duì) GPU 芯片的性能提出了極高要求。隨著 GPU 計(jì)算密度和功耗的不斷攀升,散熱問題成為了制約其性能發(fā)揮的關(guān)鍵因素。傳統(tǒng)的風(fēng)冷方案已難以滿足日益增長(zhǎng)的散...

關(guān)鍵字: 人工智能 高性能計(jì)算 芯片

在人工智能飛速發(fā)展的當(dāng)下,大模型展現(xiàn)出了強(qiáng)大的語言理解與生成能力。然而,要讓這些模型真正在實(shí)際場(chǎng)景中發(fā)揮作用,與外部豐富的工具及數(shù)據(jù)源順暢交互至關(guān)重要。在此背景下,Model Context Protocol(MCP),...

關(guān)鍵字: 人工智能 大模型 協(xié)議

LED智能調(diào)光系統(tǒng)是一種基于LED光源的電氣控制系統(tǒng),主要應(yīng)用于酒店、展廳、劇場(chǎng)及商業(yè)建筑等場(chǎng)景,可實(shí)現(xiàn)動(dòng)態(tài)調(diào)節(jié)光通量和照度。

關(guān)鍵字: LED智能調(diào)光系統(tǒng)

在DAB中,兩個(gè)橋的占空比通常保持在50%,功率流動(dòng)是通過改變兩個(gè)電橋之間的相位即相移(phase shift)而實(shí)現(xiàn)的。

關(guān)鍵字: 雙有源橋

電容觸摸技術(shù)作為一種實(shí)用、時(shí)尚的人機(jī)交互方式,已經(jīng)被廣泛的應(yīng)用到各種電子產(chǎn)品,小到電燈開關(guān),大到平板電腦、觸摸桌等。

關(guān)鍵字: 電容觸摸

在平安城市建設(shè)中,視頻監(jiān)控系統(tǒng)正從標(biāo)清向4K/8K超高清方向發(fā)展。超高清視頻雖能提供更豐富的細(xì)節(jié)(如人臉特征、車牌號(hào)碼),但也帶來數(shù)據(jù)量激增(8K視頻碼流達(dá)100Mbps)、傳輸延遲升高、存儲(chǔ)成本攀升等問題。端-邊-云協(xié)...

關(guān)鍵字: 平安城市 視頻監(jiān)控

在智慧城市建設(shè)中,井蓋位移監(jiān)測(cè)是保障市政設(shè)施安全運(yùn)行的關(guān)鍵環(huán)節(jié)。傳統(tǒng)人工巡檢方式存在效率低、響應(yīng)慢等問題,而基于低功耗藍(lán)牙(BLE)與邊緣計(jì)算的實(shí)時(shí)預(yù)警系統(tǒng),通過物聯(lián)網(wǎng)技術(shù)實(shí)現(xiàn)了對(duì)井蓋狀態(tài)的實(shí)時(shí)感知與智能分析。本文從系統(tǒng)...

關(guān)鍵字: 井蓋位移 BLE

在萬物互聯(lián)的M2M(機(jī)器對(duì)機(jī)器)通信場(chǎng)景中,邊緣AI正通過將計(jì)算能力下沉至終端設(shè)備,重構(gòu)傳統(tǒng)物聯(lián)網(wǎng)架構(gòu)。以TensorFlow Lite Micro(TFLite Micro)為核心的輕量化模型部署方案,憑借其低功耗、低...

關(guān)鍵字: 邊緣AI M2M
關(guān)閉