可解釋的人工智能可以讓人們理解人工智能系統(tǒng)是如何做出決定的,而這將成為醫(yī)療、制造、保險、汽車領域的關鍵。那么這對于組織意味著什么?
例如,流媒體音樂服務平臺Spotify計劃向用戶推薦歌手JusTIn Bieber的歌曲,卻推薦了Belieber的歌,顯然這有些令人感到困擾。這并不一定意味著SpoTIfy網站的程序員必須確保他們的算法透明且易于理解,但人們可能會發(fā)現(xiàn)這有些偏離目標,但其后果顯然是微不足道的。
這是可解釋人工智能的一個試金石——即機器學習算法和其他人工智能系統(tǒng),它們可以產生人類可以容易理解并追溯到起源的結果?;谌斯ぶ悄艿慕Y果越重要,對可解釋人工智能的需求就越大。相反,相對低風險的人工智能系統(tǒng)可能只適合黑盒模型,人們很難理解其結果。
Jane.ai公司人工智能研發(fā)主管Dave Costenaro說:“如果人工智能算法的效果不夠好,比如音樂服務公司推薦的歌曲一樣,那么社會可能不需要監(jiān)管機構對這些建議進行監(jiān)管?!?/p>
人們可以忍受應用程序對其音樂品味的誤解。但可能無法忍受人工智能系統(tǒng)帶來的更重要的決定,也許是在建議的醫(yī)療或拒絕申請抵押貸款的情況下。
這些都是高風險的情況,尤其是在出現(xiàn)負面結果的情況下,人們可能需要明確地解釋是如何得出特定結果的。在許多情況下,審計師、律師、政府機構和其他潛在當事人也會這樣做。
Costenaro表示,由于特定決策或結果的責任從人類轉移到機器,因此對可解釋性的需求也會增加。
Costenaro說,“如果算法已經讓人類處于這個循環(huán)中,人類決策者可以繼續(xù)承擔解釋結果的責任。”
他舉例說明了一個為放射科醫(yī)生預先標記X射線圖像的計算機視覺系統(tǒng)。他說,“這可以幫助放射科醫(yī)生更準確、更有效地工作,但最終將提供診斷和解釋?!?/p>
IT的人工智能責任:解釋原因
然而,隨著人工智能的成熟,人們可能會看到越來越多的新應用程序逐漸依賴于人類的決策和責任。音樂推薦引擎可能沒有特別重大的責任負擔,但許多其他真實或潛在的用例將會面臨重大的責任。
Costenaro說,“對于一類新的人工智能決策來說,這些決策具有很高的影響力,而且由于所需處理的速度或數(shù)量,人類不再能夠有效地參與其中,從業(yè)者們正在努力尋找解釋算法的方法?!?/p>
IT領導者需要采取措施確保其組織的人工智能用例在必要時正確地包含可解釋性。 TIgerGraph公司營銷副總裁Gaurav Deshpande表示,許多企業(yè)首席信息官已經關注這個問題,即使他們了解到特定人工智能技術或用例的價值,他們通常還有一些猶豫。
Deshpande說,“但是如果不能解釋是如何得出答案的,就不能使用它。這是因為‘黑盒’人工智能系統(tǒng)存在偏見的風險,這可能導致訴訟、對企業(yè)品牌以及資產負債表的重大責任和風險?!?/p>
這是思考企業(yè)如何以及為何采用可解釋的人工智能系統(tǒng)而不是操作黑盒模型的另一種方式。他們的業(yè)務可能依賴于它。人們對人工智能偏見的主張可能會被誤導。在風險較高的情況下,類似的要求可能相當嚴重。而這就是可解釋的人工智能可能成為機器學習、深度學習和其他學科的商業(yè)應用的焦點的原因。
Ness數(shù)字工程公司首席技術官Moshe Kranc對可解釋人工智能的潛在用例進行了探討,他說,“任何影響人們生活的用例都可能受到偏見的影響?!逼浯鸢讣群唵斡稚钸h。
他分享了一些越來越多地可能由人工智能做出決定的例子,但這從根本上需要信任、可審計性和其他可解釋人工智能的特征:
·參加培訓計劃
·決定是否為某人投保以及投保多少費用
·根據(jù)人口統(tǒng)計數(shù)據(jù)決定是否向某人發(fā)放信用卡或貸款
考慮到這一點,各種人工智能專家和IT領導者為此確定可解釋人工智能必不可少的行業(yè)和用例。銀行業(yè)是一個很好的例子,可以這么說,可解釋的人工智能非常適合機器在貸款決策和其他金融服務中發(fā)揮關鍵作用。在許多情況下,這些用途可以擴展到其他行業(yè),其細節(jié)可能會有所不同,但原則保持不變,因此這些示例可能有助于思考組織中可解釋的人工智能用例。