人工智能應(yīng)該怎樣進步
集微網(wǎng)消息,在過去,當技術(shù)人員和商業(yè)領(lǐng)袖談到“數(shù)字轉(zhuǎn)型”時,他們會想到移動APP與云計算。而現(xiàn)在,他們會異口同聲的說出人工智能。cognitive TIvescale的執(zhí)行主席兼AI Global主席Manoj Saxena 認為我們正處于第四次工業(yè)革命的開端,我們?nèi)缃駥θ绾喂芾砣斯ぶ悄芩龀龅倪x擇,將決定未來人工智能是否值得信賴。人工智能是一個非常強大,非常有潛力的工具,人們對它的信任尚且處于不定的狀態(tài),而我們才剛開始理解這些擁有自我學習能力的系統(tǒng)所帶來的深遠責任。
對破壞性、混亂性、攻擊性,甚至是危險的人工智能的恐懼,導致舊金山市上個月禁止執(zhí)法部門使用面部識別技術(shù)。雖然禁令并不能解決問題,但也很難指責舊金山的領(lǐng)導人。不受限制地使用人工智能將侵蝕民主權(quán)利和個人自由。正如一位市議會成員所解釋的那樣,“我們有巨大的責任來規(guī)范這項技術(shù)?!?/p>
那些最接近人工智能的人最容易理解沒有道德規(guī)范的人工智能的威脅。總的來說,軟件開發(fā)長期以來一直需要實現(xiàn)更好的全球道德標準。但對于人工智能來說需求更大,因為風險也更大。
一項針對1010名英國科技工作者的研究發(fā)現(xiàn),90%的人認為科技是一種正能量,但59%在人工智能領(lǐng)域工作的人表示,他們從事的項目可能對社會有害,18%的人因為倫理道德問題而辭職。
但問題不是我們是否應(yīng)該禁止人工智能,我們需要問的是,政府如何才能找到一條既能取得進步又能保護公民的道路。
公民將期望政府在醫(yī)療、治安、稅收等公共職能方面跟上技術(shù)創(chuàng)新的步伐。與此同時,政府必須確保私營部門的人工智能解決方案符合公民社會的價值觀。在這兩種情況下,關(guān)鍵是政府要通過建立倫理道德委員會來建立最佳實踐的AI模型,從而建立對人工智能的信任。具體來說,通過讓人工智能的決策功能足夠透明,讓公眾能夠看到該技術(shù)如何與社會價值觀相一致,你就能建立信任。
加拿大政府使用一種名為“算法影響評估”(Algorithmic Impact Assessment, AIA)的工具,創(chuàng)建了一個在公共和私營部門使用人工智能的流程。
AIA工具匯集了所有利益相關(guān)者,包括公眾,提出一系列重要的問題。例如:人工智能是做什么的?如果人們有疑問或投訴,是否有追索權(quán)機制?機器的決定有多容易解釋?這些決定是基于客觀標準,還是有自由裁量權(quán)和主觀性空間?
這些問題的答案將根據(jù)不同的類別進行評分。這些原始的分數(shù)會被公開,以便他們能夠評估創(chuàng)新和風險之間的權(quán)衡。應(yīng)對這些問題對政府監(jiān)管機構(gòu)、技術(shù)人員、私營企業(yè)以及最重要的個人公民來說是一項艱巨的工作。但無論是明令禁止,還是睜一只眼閉一只眼,這樣的做法顯然都是不對的。