去年美國馬薩諸塞州大學(xué)阿默斯特分校的研究人員曾表示,訓(xùn)練一臺(tái)大型AI機(jī)器產(chǎn)生的碳,平均是一個(gè)人終其一生駕駛汽車制造的排放量5倍。除此之外,還存在很多其他方面的能源消耗。因此AI未來如何實(shí)現(xiàn)可持續(xù)發(fā)展,仍是亟需解決的問題。
近期,在麻省理工一篇最新論文中顯示,其提出了一種比以前更環(huán)保的方式來訓(xùn)練和運(yùn)行AI模型的系統(tǒng)。論文中顯示,該方案被稱為是種“一勞永逸”的網(wǎng)絡(luò),它訓(xùn)練一個(gè)大型模型,該模型由許多不同大小的預(yù)訓(xùn)練子模型組成,這些子模型可以在不需要再訓(xùn)練的情況下針對(duì)一系列平臺(tái)進(jìn)行定制。每個(gè)子模型都可以在推理時(shí)獨(dú)立運(yùn)行而無需重新訓(xùn)練,系統(tǒng)根據(jù)與目標(biāo)硬件的功率和速度限制相關(guān)的精度和延遲權(quán)衡來確定最 佳子模型。
內(nèi)-容-來-自;中_國_碳_0排放¥交-易=網(wǎng) t an pa i fa ng . c om
“漸進(jìn)收縮”算法有效地訓(xùn)練大模型,同時(shí)支持所有子模型。先訓(xùn)練大模型,再利用大模型訓(xùn)練較小的子模型,使其同時(shí)學(xué)習(xí),最后所有子模型都得到了支持。
本/文-內(nèi)/容/來/自:中-國-碳-排-放-網(wǎng)-tan pai fang . com
ALt4518534302221312麻省理工學(xué)院提出更環(huán)保的AI訓(xùn)練方式,可降低碳排放 內(nèi).容.來.自:中`國`碳#排*放*交*易^網(wǎng) t a np ai f an g.com
在實(shí)驗(yàn)中,研究人員發(fā)現(xiàn),用他們的方法訓(xùn)練一個(gè)包含超過10個(gè)五分之一建筑環(huán)境的計(jì)算機(jī)視覺模型,最終比花幾個(gè)小時(shí)訓(xùn)練每個(gè)子網(wǎng)絡(luò)要有效得多。此外,它并沒有影響模型的準(zhǔn)確性或效率——當(dāng)使用通用基準(zhǔn)(ImageNet)進(jìn)行測試時(shí),該模型在移動(dòng)設(shè)備上達(dá)到了理想準(zhǔn)確性,在推理方面比領(lǐng) 先的分類系統(tǒng)快1.5到2.6倍。 內(nèi)/容/來/自:中-國-碳-排-放*交…易-網(wǎng)-tan pai fang . com
也許更令人印象深刻的是,研究人員聲稱,與當(dāng)今流行的模型搜索技術(shù)相比,計(jì)算機(jī)視覺模型在訓(xùn)練時(shí)需要大約1/1300的碳排放量。IBM研究員、麻省理工學(xué)院沃森人工智能實(shí)驗(yàn)室成員談到這項(xiàng)研究時(shí)表示:“如果人工智能要繼續(xù)快速發(fā)展,我們就需要減少其對(duì)環(huán)境的影響。” 禸*嫆唻@洎:狆國湠棑倣茭昜蛧 τāńpāīfāńɡ.cōm
【版權(quán)聲明】本網(wǎng)為公益類網(wǎng)站,本網(wǎng)站刊載的所有內(nèi)容,均已署名來源和作者,僅供訪問者個(gè)人學(xué)習(xí)、研究或欣賞之用,如有侵權(quán)請(qǐng)權(quán)利人予以告知,本站將立即做刪除處理(QQ:51999076)。