人工智能下AI 帶來的法規(guī)與監(jiān)管問題
人工智能(AI)是現(xiàn)時每家公司都希望采用的科技,事關通過先進的 AI 技術,將可望減少人手!不過大家先別太高興,事關人工智能亦會帶來了一系列法規(guī)上的問題,假如你身處在一個依法治國的地方,便要多加留意啦!
AI 以及機器學習等,由于需要通過收集大量數(shù)據(jù)以完成機器學習的過程,因此在企業(yè)角度來說,稍一不慎便很容易誤墮法網(wǎng),尤其是對于某些行業(yè),例如:醫(yī)療保健以及金融業(yè)等,便需更加注意;但相對的,當企業(yè)欠缺足夠的數(shù)據(jù)進行分析,亦會對 AI 以及大數(shù)據(jù)分析有明顯的影響。
使用 AI 的風險
首先是金融公司。對她們來說,雖然使用 AI 可令投資決策更精準,不過錯誤使用 AI 例如錯誤采用不同的算法內(nèi)容,便有機會令投資者做錯決定。
至于醫(yī)療保健行業(yè),現(xiàn)時采用 AI 以及機器學習等技術,主要用于進行各種的辨識功能,例如可識別診斷醫(yī)療影像中的情況!盡管這些基于 AI 及機器學習的識別會隨著時間而變得愈來愈精準,然而由于識別過程之中欠缺將病人的病歷以及習慣或患者的其他背景信息一并作考慮,因此與人工智能和機器學習所得出的結果可能很窄且不完整,而單單依賴這些結果而沒有醫(yī)學判斷實際上還會導致更差的結果。
另外,AI 亦會犯錯!面對此情況,人類和機器的角色和責任又會是什么呢?機器如何做出決定并自主地學習以獲得更好的結果?如果你認為人工智能是「工廠」,輸出或決策是根據(jù)自我學習而制定的,那么人類的角色就是設計部門,通過良好的策略制定而使其產(chǎn)生可接受的結果以及降低錯誤所造成的損失;而作為人類,我們有責任確保這個學習過程的質量。
然而隨著機器能夠自己做出決定,我們亦同樣需要考慮他們所犯的錯誤及其后果,以便設計合適的監(jiān)管方法。
需要考慮的法律問題
除了監(jiān)管方面,使用人工智能還需考慮法律上的問題,其中主要的問題是:假如機器得出錯誤的結論而造成可能有害的行動,誰將會為此而負責?是計算機?AI?還是開發(fā)者?
例如,出現(xiàn)醫(yī)療事故,是醫(yī)生或醫(yī)療中心的問題,還是應用開發(fā)者及負責人的問題?又例如,患者明確要求以 AI 系統(tǒng)進行治療,那又要怎么辦?
另外在金融行業(yè)之中,如果使用人工智能來幫助收集財務信息,那么我們可能需要有一名主管簽名并證明所提供用來分析的信息是準確的,事關不準確的數(shù)據(jù)源將會導致作出錯誤的投資決定。
換句話說,即使人工智能作出了任何的決定,都必須經(jīng)人手再次確認,才可解決法規(guī)以及法律上的責任問題,亦即是說 AI 在某些行業(yè)之中并不能有效地發(fā)揮其作用。
安全 AI 最佳實踐
其實我們可以作一些準備以防范與人工智能相關的法律和合規(guī)性風險。其中一個最關鍵的事情,就是徹底掌握機器如何做出決定。這意味著理解立法機構,法院和陪審團可能會對創(chuàng)建和部署系統(tǒng)的人產(chǎn)生不滿,亦即是說開發(fā)者擁有很大的責任。
公司亦可能需要考慮他們是否可以設計一個系統(tǒng),以便在滿足監(jiān)管機構和法律門坎的水平上的要求,而監(jiān)管機構則可以通過責任規(guī)則和其他方法來鼓勵這種透明度;企業(yè)亦應參與制定管理其運營規(guī)則的相關監(jiān)管機構的規(guī)則制定,以確保其切實可行。