人工智能技術(shù)的計(jì)算能力是怎樣加強(qiáng)的
引述外媒報(bào)道,斯坦福大學(xué)的AI指數(shù)2019年度報(bào)告發(fā)現(xiàn),人工智能(AI)的速度超過了摩爾定律。
據(jù)《計(jì)算機(jī)周刊》報(bào)道,斯坦福大學(xué)和麥肯錫公司的報(bào)告顯示,人工智能的計(jì)算能力每三個(gè)月左右就翻一番。這意味著AI正在以比摩爾定律所期望的計(jì)算機(jī)芯片快得多的速度變得更強(qiáng)大。摩爾定律說,芯片速度每18個(gè)月到兩年將翻一番。
這意味著應(yīng)用程序開發(fā)人員可以期望在相同硬件成本的情況下將應(yīng)用程序性能提高一倍。
但是與麥肯錫公司,谷歌,普華永道,OpenAI,Genpact和AI21Labs聯(lián)合制作的斯坦福報(bào)告發(fā)現(xiàn),人工智能的計(jì)算能力比傳統(tǒng)處理器的開發(fā)速度更快。報(bào)告稱:“在2012年之前,人工智能的結(jié)果緊追摩爾定律,計(jì)算量每兩年翻一番?!?“ 2012年之后,計(jì)算量每3.4個(gè)月翻一番?!?/p>
該研究通過跟蹤ImageNet圖像識別程序的進(jìn)度,研究了AI算法如何隨時(shí)間改進(jìn)。鑒于圖像分類方法主要基于有監(jiān)督的機(jī)器學(xué)習(xí)技術(shù),該報(bào)告的作者研究了訓(xùn)練AI模型和相關(guān)成本所需的時(shí)間,他們表示這是對AI開發(fā)基礎(chǔ)設(shè)施成熟度的衡量,反映了軟件的進(jìn)步和硬件。
他們的研究發(fā)現(xiàn),在18個(gè)月的時(shí)間里,在云基礎(chǔ)架構(gòu)上訓(xùn)練監(jiān)督圖像識別的網(wǎng)絡(luò)所需的時(shí)間從2017年10月的大約3個(gè)小時(shí)減少到2019年7月的大約88秒。該報(bào)告指出,有關(guān)ImageNet在私有云上訓(xùn)練時(shí)間的數(shù)據(jù)實(shí)例符合公共云AI培訓(xùn)時(shí)間的改進(jìn)。
該報(bào)告的作者使用ResNet圖像分類模型來評估算法達(dá)到高準(zhǔn)確度所需的時(shí)間。在2017年10月,需要13天的培訓(xùn)時(shí)間才能達(dá)到略高于93%的準(zhǔn)確性。該報(bào)告發(fā)現(xiàn),在13天內(nèi)訓(xùn)練基于AI的圖像分類以達(dá)到93%的準(zhǔn)確性將在2017年花費(fèi)約2,323美元。
這項(xiàng)研究報(bào)告稱,斯坦福大學(xué)DAWNBench上提供的最新基準(zhǔn)測試是在GCP上使用云TPU運(yùn)行ResNet模型,以實(shí)現(xiàn)略高于93%精度的圖像分類精度,2018年9月的成本僅為12美元。
該報(bào)告還探討了計(jì)算機(jī)視覺的進(jìn)步,探討了創(chuàng)新算法,這些算法突破了自動(dòng)活動(dòng)理解的局限性,可以使用ActivityNet Challenge從視頻中識別出人類的活動(dòng)和活動(dòng)。
這項(xiàng)挑戰(zhàn)中的一項(xiàng)任務(wù)稱為“時(shí)間活動(dòng)本地化”,它使用一長串視頻序列來描述一個(gè)以上的活動(dòng),并要求算法查找給定的活動(dòng)。如今,算法可以實(shí)時(shí)準(zhǔn)確地識別數(shù)百種復(fù)雜的人類活動(dòng),但是該報(bào)告發(fā)現(xiàn)還需要做更多的工作。
“在過去四年中組織了國際活動(dòng)認(rèn)可挑戰(zhàn)賽(AcTIvityNet)之后,我們注意到需要開展更多研究來開發(fā)能夠可靠地區(qū)分活動(dòng)的方法,這些方法涉及運(yùn)動(dòng)線索,物體和物體的細(xì)粒度運(yùn)動(dòng)和/或微妙模式。人與對象之間的相互作用,”阿卜杜拉國王科技大學(xué)電氣工程副教授Bernard Ghanem說。
“展望未來,我們預(yù)見到下一代算法將成為一種強(qiáng)調(diào)學(xué)習(xí)的算法,而無需過多的手動(dòng)整理數(shù)據(jù)。在這種情況下,基準(zhǔn)測試和競賽仍將是追蹤此自學(xué)領(lǐng)域進(jìn)展的基石?!?/p>