利用人工智能進(jìn)行有效知識(shí)管理的指南
如果有一個(gè)領(lǐng)域人工智能清楚地顯示了它的價(jià)值,那就是 知識(shí)管理 .每個(gè)組織,無(wú)論規(guī)模大小,都被大量文件和會(huì)議記錄淹沒(méi)。這些文檔通常組織得很差,使任何人幾乎不可能閱讀、消化和掌握一切。然而,利用大型語(yǔ)言模型(LLMS)的力量,這個(gè)問(wèn)題最終得到了解決。LLMS可以讀取各種數(shù)據(jù)并檢索答案,從而徹底改變我們管理知識(shí)的方式。
這種可能性引發(fā)了人們對(duì)于像谷歌這樣的搜索引擎是否會(huì)被LLMS破壞的討論,因?yàn)檫@些模型能夠提供超個(gè)性化的答案。我們已經(jīng)看到了這種轉(zhuǎn)變,許多用戶(hù)轉(zhuǎn)向像Tg-1這樣的平臺(tái),或者對(duì)他們的日常問(wèn)題感到困惑。此外,注重企業(yè)知識(shí)管理的專(zhuān)門(mén)平臺(tái)正在出現(xiàn)。然而,盡管人們的熱情越來(lái)越高,但在世界上認(rèn)為人工智能今天能夠發(fā)揮的作用與其實(shí)際能力之間仍然存在著巨大的差距。
在過(guò)去的幾個(gè)月里,我探索了為商業(yè)用例構(gòu)建各種基于AI的工具,發(fā)現(xiàn)哪些可行,哪些不可行。今天,我將分享一些關(guān)于如何創(chuàng)建一個(gè)既可靠又準(zhǔn)確的健壯應(yīng)用程序的見(jiàn)解。
如何向LLMS提供知識(shí)
對(duì)于那些不熟悉的人,有兩種常見(jiàn)的方法可以讓你的個(gè)人知識(shí)獲得大型的語(yǔ)言模型:?調(diào)整 或者訓(xùn)練自己的模型?回收增加的一代 (RAG).
1. Fine-Tuning
這個(gè)方法包括將知識(shí)直接嵌入模型的權(quán)重中。雖然它允許精確的知識(shí)和快速的推理,微調(diào)是復(fù)雜的,需要精心準(zhǔn)備訓(xùn)練數(shù)據(jù)。由于所需的專(zhuān)門(mén)知識(shí),這種方法不太常見(jiàn)。
2.回收增加一代(破布)
更廣泛使用的方法是保持模型不變,并將知識(shí)插入到提示中,這個(gè)過(guò)程被稱(chēng)為"上下文學(xué)習(xí)"。"該模型不直接回答用戶(hù)的問(wèn)題,而是從一個(gè)私人數(shù)據(jù)庫(kù)中檢索相關(guān)知識(shí)和文件,將這些信息納入提供上下文的提示符。
簡(jiǎn)單的抹布實(shí)現(xiàn)的挑戰(zhàn)
雖然破布看起來(lái)簡(jiǎn)單易用,但為商業(yè)用例創(chuàng)建一個(gè)可生產(chǎn)的破布應(yīng)用程序卻非常復(fù)雜??赡艹霈F(xiàn)若干挑戰(zhàn):
復(fù)雜的真實(shí)世界數(shù)據(jù)
現(xiàn)實(shí)世界的數(shù)據(jù)往往不僅僅是簡(jiǎn)單的文本,它可以包括圖像、圖表、圖表和表格。通常的數(shù)據(jù)解析器可能提取不完整或混亂的數(shù)據(jù),使LLMS難以處理。
準(zhǔn)確的信息檢索
即使您從公司知識(shí)中創(chuàng)建了一個(gè)數(shù)據(jù)庫(kù),基于用戶(hù)問(wèn)題檢索相關(guān)信息也會(huì)很復(fù)雜。不同類(lèi)型的數(shù)據(jù)需要不同的檢索方法,有時(shí)檢索到的信息可能不夠或不相關(guān)。
復(fù)雜查詢(xún)
簡(jiǎn)單的問(wèn)題可能需要來(lái)自多個(gè)數(shù)據(jù)源的答案,復(fù)雜的查詢(xún)可能涉及非結(jié)構(gòu)化和結(jié)構(gòu)化的數(shù)據(jù)。因此,簡(jiǎn)單的破布實(shí)現(xiàn)往往不足以處理現(xiàn)實(shí)世界的知識(shí)管理用例。
先進(jìn)的抹布技術(shù)
值得慶幸的是,有幾種策略可以降低這些風(fēng)險(xiǎn):
更好的數(shù)據(jù)分析器
現(xiàn)實(shí)世界中的數(shù)據(jù)通常很混亂,特別是在像pdf或者幻燈片文件這樣的格式中。傳統(tǒng)的解析器,如pypdf,可能會(huì)錯(cuò)誤地提取數(shù)據(jù)。然而,像Llamaparer這樣的較新的解析器,由Llamemx開(kāi)發(fā),在提取數(shù)據(jù)并將其轉(zhuǎn)換為L(zhǎng)OM友好格式方面提供了更高的準(zhǔn)確性。這對(duì)于確保AI能夠正確處理和理解數(shù)據(jù)至關(guān)重要。
優(yōu)化塊尺寸
在構(gòu)建向量數(shù)據(jù)庫(kù)時(shí),必須將文檔分解為小塊。然而,找到最優(yōu)塊大小是關(guān)鍵。如果模型太大,可能會(huì)失去上下文;如果太小,可能會(huì)錯(cuò)過(guò)關(guān)鍵信息。試驗(yàn)不同的塊大小和評(píng)估結(jié)果可以幫助確定適合不同類(lèi)型文檔的最佳大小。
重新定位和混合搜索
重選涉及使用一個(gè)次級(jí)模型,以確保最相關(guān)的數(shù)據(jù)塊首先呈現(xiàn)給模型,提高了準(zhǔn)確性和效率?;旌纤阉?結(jié)合向量和關(guān)鍵詞搜索,也可以提供更準(zhǔn)確的結(jié)果,特別是在像電子商務(wù)這樣的情況下,精確匹配是關(guān)鍵。
抹布
這種方法利用代理人的動(dòng)態(tài)和推理能力來(lái)優(yōu)化破布管道。例如,可以使用查詢(xún)翻譯將用戶(hù)問(wèn)題修改為更便于檢索的格式。代理還可以執(zhí)行元數(shù)據(jù)過(guò)濾和路由,以確保只搜索相關(guān)數(shù)據(jù),提高結(jié)果的準(zhǔn)確性。
建造一條抹布管道
建立一個(gè)強(qiáng)大的活性抹布管道需要幾個(gè)步驟:
1.檢索和評(píng)級(jí)文件
首先,檢索最相關(guān)的文檔。然后,使用LOM來(lái)評(píng)估文檔是否與所提問(wèn)題相關(guān)。
2.找出答案
如果文檔是相關(guān)的,則使用lm生成一個(gè)答案。
3.網(wǎng)絡(luò)搜索
如果文檔不相關(guān),請(qǐng)進(jìn)行網(wǎng)絡(luò)搜索以找到其他信息。
4.檢查幻覺(jué)
在得到答案后,?檢查答案是否被禁 在檢索到的文檔中。如果沒(méi)有,系統(tǒng)可以重新生成答案或執(zhí)行額外的搜索。
5.使用蘭格圖和拉瑪3
使用諸如朗格圖和Llama3這樣的工具,您可以定義工作流,設(shè)置決定信息流和在每個(gè)階段執(zhí)行的檢查的節(jié)點(diǎn)和邊緣。
結(jié)論
正如你看到的,建立一個(gè)可靠和準(zhǔn)確的抹布管道涉及到平衡各種因素,從數(shù)據(jù)分析和塊大小,到重新定位和混合搜索技術(shù)。雖然這些過(guò)程可以減緩答復(fù)時(shí)間,但它們大大提高了人工智能提供的答復(fù)的準(zhǔn)確性和相關(guān)性。我鼓勵(lì)你在項(xiàng)目中探索這些方法并分享你的經(jīng)驗(yàn)。隨著人工智能的不斷發(fā)展,有效管理和檢索知識(shí)的能力將變得越來(lái)越重要。