記者(公眾號:記者)消息,近日,北京曠視科技有限公司(以下簡稱曠視)正式公布了基于企業(yè)自身管理標準的《人工智能應用準則》(以下簡稱《準則》)。
曠視是全球最早一批探索人工智能商業(yè)化的公司,2011 年由印奇、唐文斌和楊沐三位創(chuàng)始人成立;他們均畢業(yè)于由圖靈獎得主兼中國計算機科學家和理論家姚期智院士創(chuàng)立的清華大學“姚班”。
在成立后的近十年里,曠視憑借強大的軟硬件整合能力,為客戶打造出了全棧人工智能解決方案,從而在個人物聯(lián)網(wǎng)、城市物聯(lián)網(wǎng)和供應鏈物聯(lián)網(wǎng)等多個垂直應用領域處于行業(yè)領先地位;公司還通過創(chuàng)建人工智能基礎設施,并連接眾多物聯(lián)網(wǎng)設備,去解決實際生活中的各類問題,以及金融科技、交通和物流等行業(yè)的痛點。
因此,作為在人工智能領域的前沿企業(yè),曠視率先行業(yè)推出了《準則》?!稖蕜t》從正當性、人的監(jiān)督、技術可靠性和安全性、公平和多樣性、問責和及時修正、數(shù)據(jù)安全與隱私保護六個維度,對人工智能正確有序發(fā)展作出明確規(guī)范,同時給出相應干預措施或指導意見,確保人工智能能夠在可控范圍內持續(xù)發(fā)展,呼喚起各界對善用技術的重視,倡導行業(yè)提早建立可持續(xù)發(fā)展的生態(tài)。
以下是《準則》全文:
《人工智能應用準則》
1.正當性:技術應該是一種正面的力量。我們致力于成為一個負責任的企業(yè)公民,遵守適用的法律和普遍接受的道德原則,增進社會福祉。
2.人的監(jiān)督:人工智能不應該超越人的自主性。人類應該能夠監(jiān)督人工智能技術的發(fā)展以及人工智能系統(tǒng)的決策,并在必要時進行干預。
3.技術可靠性和安全性:人工智能解決方案應該能夠做出準確有效的決策,同時對外部攻擊具有足夠的安全性和防御力。人工智能解決方案應該進行廣泛的測試,謹慎使用并嚴格監(jiān)控。
4.公平和多樣性:人工智能技術的開發(fā)人員應盡量減少人工智能解決方案的系統(tǒng)性偏差,這種系統(tǒng)性偏差可能來自于用于開發(fā)解決方案的數(shù)據(jù)和算法中固有的偏差。無論年齡,性別,種族或其他特征如何,所有人都應該可以使用人工智能解決方案。
5.問責和及時修正:人工智能解決方案應該是可審核、可追責的。人工智能解決方案的錯誤、缺陷、偏見或其他負面影響,一經(jīng)發(fā)現(xiàn),應立即予以承認并積極地加以處理。
6. 數(shù)據(jù)安全與隱私保護:人工智能解決方案的開發(fā)及使用過程中,需嚴格保護用戶的個人隱私、保障數(shù)據(jù)安全。