1月24日 消息:華盛頓大學(xué)推出更高效的大模型調(diào)優(yōu)方法“代理調(diào)優(yōu)”,該方法通過對比小型調(diào)整模型和未調(diào)整模型的預(yù)測結(jié)果來引導(dǎo)基礎(chǔ)模型的預(yù)測,實現(xiàn)對模型的調(diào)優(yōu)而無需接觸模型的內(nèi)部權(quán)重。
隨著ChatGPT等生成式AI產(chǎn)品的發(fā)展,基礎(chǔ)模型的參數(shù)不斷增加,因此進行權(quán)重調(diào)優(yōu)需要耗費大量時間和算力。為提升調(diào)優(yōu)效率,該方法可以在解碼時更好地保留訓(xùn)練知識,同時保留更大規(guī)模預(yù)訓(xùn)練的優(yōu)勢。研究人員對LlAMA-2的13B、70B原始模型進行了微調(diào),結(jié)果顯示代理調(diào)優(yōu)的性能比直接調(diào)優(yōu)的模型更高。
該方法需要準(zhǔn)備一個小型的預(yù)訓(xùn)練語言模型M-,與基礎(chǔ)模型M共享相同的詞匯表,然后使用訓(xùn)練數(shù)據(jù)對M-進行調(diào)優(yōu)得到調(diào)優(yōu)模型M+。
在解碼時,通過對比基礎(chǔ)模型M的輸出預(yù)測分布和調(diào)優(yōu)模型M+的輸出預(yù)測分布之間的差異,來引導(dǎo)基礎(chǔ)模型的預(yù)測,最后將預(yù)測差異應(yīng)用于基礎(chǔ)模型的預(yù)測結(jié)果,以引導(dǎo)基礎(chǔ)模型的預(yù)測朝向調(diào)優(yōu)模型的預(yù)測方向移動。這一方法與大模型中的“蒸餾”技術(shù)恰恰相反,是一種創(chuàng)新性的調(diào)優(yōu)方法。
代理調(diào)優(yōu)方法的推出,為大模型的調(diào)優(yōu)提供了更高效的解決方案,同時也可以在解碼時更好地保留訓(xùn)練知識,使得模型的性能更高。這一方法的推出將為AI領(lǐng)域的發(fā)展帶來新的啟示,值得進一步深入研究和應(yīng)用。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...