[導讀]整理?|禾木木出品|?AI科技大本營(ID:rgznai100)OpenAI,這次真的要Open了。OpenAI在2020年6月開放了GPT-3API接口,但只是開放商用,隨即吸引了大量的公司:客服、視頻游戲、輔導服務和心理健康應用程序等。近日,OpenAI宣布,將取消訪問其自然...
整理 | 禾木木出品 | AI科技大本營(ID:rgznai100)OpenAI,這次真的要 Open 了。OpenAI 在 2020 年 6 月開放了 GPT-3 API 接口,但只是開放商用,隨即吸引了大量的公司:客服、視頻游戲、輔導服務和心理健康應用程序等。近日,OpenAI宣布,將取消訪問其自然語言處理程序GPT-3 API 的等候名單。
人工智能保障措施
但 OpenAI 承認,這些改進并不能解決大型語言模型中固有的毒性問題。GPT-3 在技術上還遠遠不夠完事,該模型是在超過 600GB 的網(wǎng)絡文本上進行訓練的,其中一部分來自具有性別、種族、身體和宗教偏見的社區(qū)。研究表明,與其他大型語言模型一樣,它會放大訓練數(shù)據(jù)的偏差。在一篇論文中,米德爾伯里國際研究所的恐怖主義、極端主義和反恐中心發(fā)現(xiàn), GPT-3 可以生成“有影響力的”文本,可以將人們激進到極右的極端主義思想。喬治城大學( Georgetown University )的一個研究小組使用 GPT-3 生成了錯誤信息,包括圍繞虛假敘述的故事、為推動虛假觀點而修改的文章,以及針對特定錯誤信息點的推文。最近的工作表明,語言模型可能難以理解少數(shù)民族方言的某些方面,迫使使用模型的人轉向“白人英語”以確保模型可以繼續(xù)為他們工作。隨著 API 的 Beta 版可用,OpenAI 更新了其內(nèi)容指南,以闡明其 API 不能用于生成哪些類型的內(nèi)容,例如與政治、暴力、騷擾、仇恨、垃圾郵件、惡意軟件、欺騙和自我傷害有關的內(nèi)容 。該公司表示,它正在與一些客戶測試特定內(nèi)容類別的“目標過濾器”,并禁止其 API 上的某些類型的內(nèi)容,如成人內(nèi)容,其系統(tǒng)“目前無法可靠地識別有害的可接受的使用?!?/span>OpenAI 寫道“我們的政策始終禁止不遵守我們章程中描述的原則的方式使用我們的 API,像仇恨言論這樣的內(nèi)容會一直被禁止……我們正在不斷努力,使我們的內(nèi)容過濾器更加強大,隨著系統(tǒng)的改進,我們打算允許在某些類別內(nèi)可接受的使用?!薄拔覀兒芨吲d有保障措施為更多的開發(fā)者開放 GPT-3 。隨著我們的安全措施不斷改進,我們將擴展 API 的使用方法,同時進一步改進用戶的體驗。”GPT-3 的廣泛應用是在微軟推出 Azure OpenAI 服務之后推出的,該服務旨在讓企業(yè)能夠訪問 GPT-3 及其衍生產(chǎn)品,以及安全、合規(guī)、治理和其他以業(yè)務為中心的功能。微軟與 OpenAI 關系密切,2020 年已向該公司投資 10 億美元,并獨家授權 GPT-3 為 Azure 客戶開發(fā) AI 解決方案。這次的 OpenAI 是真的open了,你怎么看呢?