Meta免費(fèi)Code Llama AI編程工具迎來升級(jí),準(zhǔn)確率優(yōu)于GPT-3.5

來源:IT之家
作者:?jiǎn)栔?/div>
時(shí)間:2024-02-02
2648
扎克伯格宣布Meta最近對(duì)其代碼生成AI模型Code Llama 70B進(jìn)行了更新,號(hào)稱是迄今為止“最大、性能最優(yōu)的模型”。

IT之家 1月30日消息,扎克伯格宣布Meta最近對(duì)其代碼生成AI模型Code Llama 70B進(jìn)行了更新,號(hào)稱是迄今為止“最大、性能最優(yōu)的模型”。

1706840833117.png

Code Llama工具發(fā)布于去年8月,所有人都可以免費(fèi)使用。新版Code Llama 70B現(xiàn)在能夠處理比之前更多地查詢,在HumanEval基準(zhǔn)測(cè)試中的準(zhǔn)確率達(dá)到了53%,表現(xiàn)優(yōu)于GPT-3.5的48.1%,但距離OpenAI論文中給出的GPT-4準(zhǔn)確率(67%)還有一段差距。

Meta去年發(fā)布該模型時(shí)還推出了另外兩款Code Llama工具——Code Llama-Python和Code Llama-Instruct,正如字面意思,它們專為特定的編程語言進(jìn)行優(yōu)化。IT之家注意到,Code Llama 70B同樣分為三個(gè)版本,并且仍然可以免費(fèi)用于研究和商業(yè)用途。

據(jù)介紹,這個(gè)大模型基于1TB的代碼和代碼相關(guān)數(shù)據(jù)進(jìn)行訓(xùn)練而來,托管在代碼存儲(chǔ)庫Hugging Face上。Meta表示,其較大的型號(hào)34B和70B“可返回最佳結(jié)果并提供更好的編碼幫助?!?/p>

原文鏈接:點(diǎn)擊前往 >
版權(quán)說明:本文內(nèi)容來自于IT之家,本站不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。文章內(nèi)容系作者個(gè)人觀點(diǎn),不代表快出海對(duì)觀點(diǎn)贊同或支持。如有侵權(quán),請(qǐng)聯(lián)系管理員(zzx@kchuhai.com)刪除!
個(gè)人VIP