www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 模擬 > 模擬
[導讀]結合黑板系統(tǒng)及Agent技術,設計基于黑板的多Agent智能決策支持系統(tǒng)模型,同時對該模型中的各Agent功能進行描述。此外,提出系統(tǒng)中Agent的抽象結構,并對Agent的行為進行了描述和建模。該系統(tǒng)有助于多個Agent協(xié)同求解大規(guī)模復雜問題。

1 引言
    Agent是人工智能和對象實體相結合的產(chǎn)物,是能夠獨立、自動代替用戶執(zhí)行某一特定任務的程序。Agent所具有的自治、協(xié)作、學習、歸納、推理等特性能夠支持各階段的決策制定和問題求解,增強傳統(tǒng)決策支持系統(tǒng)的功能?;贏gent的結構提供可柔性、可變性、魯棒性,適用于解決一些動態(tài)的,不確定的和分布式的問題。Agent之間通過相互調度、合作協(xié)同完成大規(guī)模的復雜問題求解。由于絕大多數(shù)工作都是在特定的群體環(huán)境中由組成群體的各主體分工協(xié)作、共同完成的。大多數(shù)工作同時伴隨著決策過程,而決策過程的優(yōu)劣直接影響工作任務的順利完成,因此,Agent技術使建立一個網(wǎng)絡化、智能化、集成化的人機協(xié)調的智能決策支持系統(tǒng)成為現(xiàn)實。
    在傳統(tǒng)的智能決策支持系統(tǒng)的基礎上,提出了一種基于黑板的多Agent智能決策支持系統(tǒng)。在該系統(tǒng)中,黑板能為分布式結構系統(tǒng)提供公共工作區(qū),每個Agent可利用黑板充分交換信息、數(shù)據(jù)和知識,任意時候訪問黑板,查詢發(fā)布內容,然后各自提取所需的工作信息,以便完成各自擔當?shù)娜蝿?,并且通過黑板協(xié)調各個Agent,使多個Agent共同協(xié)作來求解給定的問題,同時強調將決策者的智慧和系統(tǒng)相結合。

2 基于黑板的多Agent智能決策支持系統(tǒng)
   
在基于黑板的多Agent智能決策支持系統(tǒng)中,每種決策任務或功能是由獨立的Agent完成,各種Agent通過相應標準從各自角度分析問題,每個Agent能力、意志和信念的不同,使它們具有問題求解領域的知識以及問題求解的技能也不同。不同的Agent從自身角度審視決策問題獨立完成子任務,然后通過黑板協(xié)同合作實現(xiàn)共同目標。由于Agent的自治性和實體化,可以隨時加入或離開一個問題求解系統(tǒng),使得決策者方便地參與到?jīng)Q策過程中,從而保證系統(tǒng)的靈活性。這里所構建的系統(tǒng)結構為交互層、智能決策層和資源層的3層體系結構,如圖1所示。其中智能界面Agent和決策用戶組成交互層;黑板、功能Agent和決策Agent組成智能決策層;模型庫及模型庫管理系統(tǒng)、知識庫及知識庫管理系統(tǒng)、方法庫及方法庫管理系統(tǒng)及數(shù)據(jù)倉庫和多庫協(xié)同器組成資源層。
2.1 智能界面Agent
    智能界面Agent是基于Agent的智能決策支持系統(tǒng)體系結構中與決策者聯(lián)系的部件,能夠獨立持續(xù)運行。系統(tǒng)通過它和決策者通信,或利用學習用戶的目標、愛好、習慣、經(jīng)驗、行為等,使用戶高效地完成任務。智能界面A—gent代替?zhèn)鹘y(tǒng)的人機交互界面,強調Agent的自主性和學習性,可以主動探測環(huán)境變化,在與用戶交互共同作用的決策中,通過不斷學習,獲得用戶某些特征知識,從而在決策過程中根據(jù)感知到的用戶行為方式提供合適的用戶界面,自主地做出與用戶意志相符合的策略。智能界面Agent的全局知識中主要包括:問題領域知識、用戶模型或用戶知識、自身知識、其他Agent能力知識。它采用發(fā)現(xiàn)和模擬用戶學習知識,獲得用戶的正向和反向反饋學習知識.用戶的指導獲得知識,通過與其他Agent的通訊獲取知識等。

2.2 功能Agent
    功能Agent監(jiān)督黑板數(shù)據(jù)平面變化,匹配各決策A—gent的激活條件和黑板各平面信息,將黑板上的信息發(fā)給相應的決策Agent。功能Agent利用系統(tǒng)的消息、隊列機制發(fā)送黑板上的信息,并且負責報告系統(tǒng)運行情況,向用戶報告任務完成情況,并提供解釋和查詢。其內部有一個各決策Agent讀黑板的激活條件表,當黑板各層信息變化時,則檢查與該層信息變化有關的激活條件表,如果匹配,則進一步分析,決定是直接激活相應的決策Agent讀取黑板信息完成相應的任務或者是做其他操作,例如提供報告和解釋等。同時還隨時提供系統(tǒng)執(zhí)行情況的查詢。它實際上就是一個可以對黑板上信息、變化進行感知的反應型Agent,每當黑板上信息改變時觸發(fā)它的檢查黑板各數(shù)據(jù)平面動作。
2.3 決策Agent
    決策Agent在某個特定領域有解決問題的知識和技能。把每一種決策方法設計為一個決策Agent,多個決策Agent在功能Agent的控制和監(jiān)督下,通過相互間的協(xié)調和合作,能夠解決復雜決策問題。這類Agent是可擴展的,隨著決策理論的發(fā)展和智能化決策方法的進步,可以開發(fā)更多的決策Agent。決策Agent沒有關于外部環(huán)境的模型,沒有關于其他Agent的知識,但仍然有與其他Agent交互的能力。

3 Agent的實現(xiàn)技術
3.1 Agent的抽象結構
    Agent行為包含:感知、認知、行為3個階段。首先感知外部環(huán)境信息,然后由認知處理部分根據(jù)自身狀態(tài),通過制定相應的決策方案,根據(jù)決策方案從多種決策方法中選擇并執(zhí)行合適的方法,從而表現(xiàn)出主動的智能行為。在認知處理中,還需要進行規(guī)劃及學習等過程,從而不斷學習新的知識,使Agent智能不斷提高。行為輸出部分通過Agent行為對外界環(huán)境施加影響。以下對Agent進行形式的抽象描述:
    首先假設環(huán)境是任何離散的瞬時狀態(tài)的有限集合E:E={e,e’…},Agent有一個可執(zhí)行動作的清單,可改變環(huán)境狀態(tài)Ac={a,a’…}為(有限的)動作集合。
    環(huán)境從某個狀態(tài)開始,Agent選擇一個動作作用于該狀態(tài)。動作結果是環(huán)境可能到達的某些狀態(tài)。然而,只有一個狀態(tài)可以真正實現(xiàn),當然,Agent事先并不知道哪個狀態(tài)會實現(xiàn)。在第二個狀態(tài)的基礎上,Agent繼續(xù)選擇一個動作執(zhí)行,環(huán)境到達可能狀態(tài)集中的一個狀態(tài)。然后,Agent再選擇另一個動作,如此繼續(xù)下去。
    Agent在環(huán)境中一次執(zhí)行r是環(huán)境狀態(tài)e與動作a交替的一個序列。假設:R是所有可能的(和上的)有限序列集合:RAC是以動作結束的序列所組成的R子集;RE是以狀態(tài)結束的序列所組成的R子集;用r,r’…代表R的成員。
    為了表示Agent的動作作用于環(huán)境的效果,引入狀態(tài)轉移函數(shù)τ:RAC→RE。狀態(tài)轉移函數(shù)建立一個執(zhí)行(假設以Agent的動作作為結束)與可能的環(huán)境狀態(tài)集合之間的映射,這些環(huán)境狀態(tài)是動作執(zhí)行的結果。
    如果τ(r)=φ(假設由一個動作作為結束),則不可能存在對的后繼狀態(tài)。在這種情況下,就說系統(tǒng)結束執(zhí)行。同時,假設所有執(zhí)行都最終會結束。形式上,環(huán)境Env是一個3元組Env=<E,e0,τ>,其中E提供環(huán)境狀態(tài)的集合,e0∈E是初始狀態(tài),τ是狀態(tài)轉移函數(shù)。把Agent的模型表示成一個函數(shù),將一次執(zhí)行(假設以環(huán)境狀態(tài)為結束)映射到動作:

    Ag:RE-AC
    因此,Agent根據(jù)系統(tǒng)到當前為止的歷史決定執(zhí)行具體的動作。
    系統(tǒng)是Agent和環(huán)境構成的對。任何系統(tǒng)都有與之相關的可能的執(zhí)行集合:用R(Ag,Env)表示Agent在環(huán)境Env中的執(zhí)行的集合。假設R(Ag,Env)只包含可以結束的執(zhí)行,即執(zhí)行r不存在可能的后繼狀態(tài):τ(r)=φ(這里不考慮無限的執(zhí)行)。形式上,序列:(e0,a0,el,al,e2,…)。表示Agent Ag在環(huán)境Envr=<E,e0,τ>中的一次執(zhí)行,如果:e0是Env的初始狀態(tài);a0=Ag(e0);對于u>0,那么:eu∈τ((e0,a0,…au一1))其中:au=Ag((e0,a0,…eu))
3.2 Agent的行為描述
    構造Agent最主要的目的是為了決策,其決策過程是一個感知到動作的過程。把Agent的決策函數(shù)分解成感知函數(shù)see和動作函數(shù)action。Agent具有內部狀態(tài),設I是Agent的所有內部狀態(tài)的集合,Per為(非空)的感知集合,Agent的決策過程基于這種信息,感知函數(shù)see實現(xiàn)從外部環(huán)境狀態(tài)到感知的映射:see:E→Per。動作選擇函數(shù)action定義為從內部狀態(tài)到動作的映射:action:I→Ac。引入一個附加函數(shù)next,實現(xiàn)從內部狀態(tài)和感知到內部狀態(tài)的映射:next:IxPer→I。因此,Agent行為可描述為:Agent從某個初始內部狀態(tài)i0開始,觀察環(huán)境狀態(tài)e,產(chǎn)生一個感知see(e),然后通過next函數(shù)更新Agent的內部狀態(tài),變成next(i0,see(e))。Agent通過action(next(i0,see(e)))選擇動作。執(zhí)行這個動作使Agent進入另一個循環(huán),繼續(xù)通過see感知外部世界,通過next更新狀態(tài),通過action選擇動作執(zhí)行。其過程如圖2所示。

3.3 Agent的行為建模
    Agent行為中的認知過程包括狀態(tài)評估、決策制定、規(guī)劃、學習等。Agent行為建模就是對認知處理所包含的幾個認知過程進行建模。其中決策制定是核心過程。決策制定是從多個方法中選擇具有最優(yōu)效用的方法并執(zhí)行的過程??梢杂眯в美碚搧砗饬糠桨傅膬?yōu)劣。
    根據(jù)效用理論,假設有m個可選方案,在當前的狀態(tài)下,采用的決策方案為Ai,產(chǎn)生的可能狀態(tài)為Sj,每一狀態(tài)的效用值是U(Sj),概率是Pj,則該決策的期望效用值為:

   
    比較每個方案的不同期望效用,其中期望效用值最大的方案即為當前的最佳決策A,即:

   
    例如,有3種可選擇方法,2種狀態(tài)的決策問題,狀態(tài)空間用(ω1,ω2)表示,可選方案為A1,A2,A3,效用函數(shù)如表1所示。

    從表1可知,當前處于狀態(tài)ω1時,A3是最好的選擇;當前狀態(tài)處于ω2時,A1是最優(yōu)選擇。當這兩種狀態(tài)分別以一定的概率p1,p2出現(xiàn)時,記p=p1,則p2=1-P。由式(1)和式(2)可得:

   
    在概率不能確定情況下,根據(jù)式(3)判斷概率的大致范圍。如對Al最優(yōu)的p應滿足:5—3p≥4+2P,5—3P≥3+5p。則有p≤1/5。類似的可計算A2,A3最優(yōu)對應的概率范圍分別為1/5≤p≤1/3,p≥1/3。在能夠判斷決策范圍的情況下,就可以據(jù)此對各方法進行分析,簡化決策。當影響效用值的因素不止一個時,就需要采用適當?shù)姆椒ㄓ嬎阈в弥?,在各屬性滿足互斥條件,即各自產(chǎn)生的效用值互相獨立時,可以采用加法的形式計算效用值。有時候,方法的選擇需要體現(xiàn)靈活性和可變性,這時可以通過引入相關的隨機變量建立隨機效用模型來計算效用值,從而使決策結果更符合實際情況。

4 結語
   
采用的基于黑板的多Agent智能決策支持系統(tǒng)模型.每個Agent本身具有自治性,Agent之間通過黑板進行信息共享,利用黑板中的信息決定自身行為,協(xié)同完成復雜問題地求解。由于Agent自身具有不確定性,對多Agent系統(tǒng)需要解決Agent之間的有效協(xié)調,因此建立統(tǒng)一的協(xié)調機制,使Agent之間可以有效地相互協(xié)調工作,提高系統(tǒng)整體性能。實際應用中還有待于進一步完善。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

強生公司(Johnson & Johnson)公布最近結束的季度銷售額和利潤實現(xiàn)增長,即使美元走強和勞動力成本上升削弱了業(yè)績。這家保健用品公司周二下調了全年銷售指引,因美元相對于全球其他貨幣的上漲帶來的持續(xù)影響。...

關鍵字: JOHNSON SE OS

成都2022年10月19日 /美通社/ -- 近期,平安養(yǎng)老險積極籌備個人養(yǎng)老金的產(chǎn)品設計和系統(tǒng)開發(fā)工作,發(fā)展多樣化的養(yǎng)老金融產(chǎn)品,推動商業(yè)養(yǎng)老保險、個人養(yǎng)老金、專屬商業(yè)養(yǎng)老保險等產(chǎn)品供給。 搭養(yǎng)老政策東風 ...

關鍵字: 溫度 BSP 東風 大眾

廣東佛山2022年10月19日 /美通社/ -- 空間是人居生活的基礎單元,承載著生存與活動的最基本功能。而對于理想空間的解構意義卻在物理性容器之外,體現(xiàn)出人們對于空間和生活深層關系的思考,同時也塑造著人與空間的新型連接...

關鍵字: 溫度 BSP 智能化 進程

上海2022年10月19日 /美通社/ -- 10月17日晚間,安集科技披露業(yè)績預告。今年前三季度,公司預計實現(xiàn)營業(yè)收入7.54億元至8.33億元,同比增長60.24%至77.03%;歸母凈利潤預計為1.73億...

關鍵字: 電子 安集科技 BSP EPS

北京2022年10月19日 /美通社/ -- 10月18日,北京市經(jīng)濟和信息化局發(fā)布2022年度第一批北京市市級企業(yè)技術中心創(chuàng)建名單的通知,諾誠健華正式獲得"北京市企業(yè)技術中心"認定。 北京市企業(yè)技...

關鍵字: BSP ARMA COM 代碼

北京2022年10月18日 /美通社/ -- 10月14日,國際數(shù)據(jù)公司(IDC)發(fā)布《2022Q2中國軟件定義存儲及超融合市場研究報告》,報告顯示:2022年上半年浪潮超融合銷售額同比增長59.4%,近5倍于...

關鍵字: IDC BSP 數(shù)字化 數(shù)據(jù)中心

上海2022年10月18日 /美通社/ -- 2022年9月5日,是首都銀行集團成立60周年的紀念日。趁著首都銀行集團成立60周年與首都銀行(中國)在華深耕經(jīng)營12年的“大日子”,圍繞作為外資金融機構對在華戰(zhàn)略的構想和業(yè)...

關鍵字: 數(shù)字化 BSP 供應鏈 控制

東京2022年10月18日  /美通社/ -- NIPPON EXPRESS HOLDINGS株式會社(NIPPON EXPRESS HOLDINGS, INC.)旗下集團公司上海通運國際物流有限公司(Nipp...

關鍵字: 溫控 精密儀器 半導體制造 BSP

廣州2022年10月18日 /美通社/ -- 10月15日,第 132 屆中國進出口商品交易會("廣交會")于"云端"開幕。本屆廣交會上高新技術企業(yè)云集,展出的智能產(chǎn)品超過140,...

關鍵字: 中國智造 BSP 手機 CAN

要問機器人公司哪家強,波士頓動力絕對是其中的佼佼者。近來年該公司在機器人研發(fā)方面獲得的一些成果令人印象深刻,比如其開發(fā)的機器人會后空翻,自主爬樓梯等。這不,波士頓動力又發(fā)布了其機器人組團跳男團舞的新視頻,表演的機器人包括...

關鍵字: 機器人 BSP 工業(yè)機器人 現(xiàn)代汽車

模擬

31144 篇文章

關注

發(fā)布文章

編輯精選

技術子站

關閉