日本在线视频网_在线免费观看日本视频_97久久曰曰久久久_精品精品国产自在久久高清

    環(huán)球快看點(diǎn)丨每一個人的大模型:開源BELLE項(xiàng)目集訓(xùn)練、數(shù)據(jù)、模型、評估、APP一體

    2023-04-23 13:18:28 來源:機(jī)器之心

    最近一段時間,以 “羊駝” 家族為代表的各類 ChatGPT 替代模型不斷涌現(xiàn)。一方面,開源社區(qū)也有了可以與 ChatGPT “一較高下” 的開源模型;而另一方面,各模型在如何提升 LLM 的指令表現(xiàn)方面以及評估 LLM 效果的方法不盡相同。

    此前,一個基于斯坦福的 Alpaca 、并進(jìn)行了中文優(yōu)化的項(xiàng)目受到大家關(guān)注,即開源中文對話大模型 70 億參數(shù)的??BELLE??(BeEveryone"sLargeLanguage modelEngine)。它基于斯坦福的 Alpaca 完成,但進(jìn)行了中文優(yōu)化,并對生成代碼進(jìn)行了一些修改,不僅如此,模型調(diào)優(yōu)僅使用由 ChatGPT 生產(chǎn)的數(shù)據(jù)(不包含任何其他數(shù)據(jù))。


    (資料圖片)

    BELLE 的目標(biāo)是促進(jìn)中文對話大模型開源社區(qū)的發(fā)展,愿景是成為能夠幫到每一個人的 LLM Engine。

    相比如何做好大語言模型的預(yù)訓(xùn)練,BELLE 更關(guān)注如何在開源預(yù)訓(xùn)練大語言模型的基礎(chǔ)上,幫助每一個人都能夠得到一個屬于自己的、效果盡可能好的具有指令表現(xiàn)能力的語言模型,降低大語言模型、特別是中文大語言模型的研究和應(yīng)用門檻。為此,BELLE 項(xiàng)目會持續(xù)開放指令訓(xùn)練數(shù)據(jù)、相關(guān)模型、訓(xùn)練代碼、應(yīng)用場景等,也會持續(xù)評估不同訓(xùn)練數(shù)據(jù)、訓(xùn)練算法等對模型表現(xiàn)的影響。

    BELLE 項(xiàng)目亮點(diǎn)包括:

    研究報告:從指令微調(diào)策略到模型評估范式等多方面探究提升大語言模型指令表現(xiàn)能力的因素?cái)?shù)據(jù)開放:豐富、大量且持續(xù)完善的訓(xùn)練和評估數(shù)據(jù)開箱即用的多種模型和指令微調(diào) / LoRA / 量化代碼多終端 LLM 推理和聊天 app,無需聯(lián)網(wǎng),離線運(yùn)行

    還有其他功能,請移步Github項(xiàng)目。

    項(xiàng)目地址:https://github.com/LianjiaTech/BELLE

    BELLE 項(xiàng)目的研究方向著眼于提升中文指令調(diào)優(yōu)模型的指令跟隨、指令泛化效果,降低模型訓(xùn)練和研究工作的門檻,讓更多人都能感受到大語言模型帶來的幫助。

    為此 BELLE 進(jìn)行了一系列研究,涵蓋模型評估方法、影響模型指令表現(xiàn)效果的因素、模型調(diào)優(yōu)等多方面。

    最近,兩篇相關(guān)論文已經(jīng)公開,下面我們看看論文內(nèi)容。

    論文介紹

    論文 1:Towards Better Instruction Following Language Models for Chinese: Investigating the Impact of Training Data and Evaluation

    論文地址:https://arxiv.org/pdf/2304.07854.pdf

    為了推動開源大語言模型的發(fā)展,大家投入了大量精力開發(fā)能夠類似于 ChatGPT 的低成本模型。首先,為了提高模型在中文領(lǐng)域的性能和訓(xùn)練 / 推理效率,我們進(jìn)一步擴(kuò)展了 LLaMA 的詞匯表,并在 34 億個中文詞匯上進(jìn)行了二次預(yù)訓(xùn)練。

    此外,目前可以看到基于 ChatGPT 產(chǎn)生的指令訓(xùn)練數(shù)據(jù)方式有:1)參考 Alpaca 基于 GPT3.5 得到的 self-instruct 數(shù)據(jù);2)參考 Alpaca 基于 GPT4 得到的 self-instruct 數(shù)據(jù);3)用戶使用 ChatGPT 分享的數(shù)據(jù) ShareGPT。在這里,我們著眼于探究訓(xùn)練數(shù)據(jù)類別對模型性能的影響。具體而言,我們考察了訓(xùn)練數(shù)據(jù)的數(shù)量、質(zhì)量和語言分布等因素,以及我們自己采集的中文多輪對話數(shù)據(jù),以及一些公開可訪問的高質(zhì)量指導(dǎo)數(shù)據(jù)集。

    為了更好的評估效果,我們使用了一個包含一千個樣本和九個真實(shí)場景的評估集來測試各種模型,同時通過量化分析來提供有價值的見解,以便更好地促進(jìn)開源聊天模型的發(fā)展。

    這項(xiàng)研究的目標(biāo)是填補(bǔ)開源聊天模型綜合評估的空白,以便為這一領(lǐng)域的持續(xù)進(jìn)步提供有力支持。

    實(shí)驗(yàn)結(jié)果如下:

    其中BELLE-0.5M-CLEAN 是從 230 萬指令數(shù)據(jù)中清洗得到 0.5M 數(shù)據(jù),其中包含單輪和多輪對話數(shù)據(jù),和之前開放的 0.5M 數(shù)據(jù)不是同一批數(shù)據(jù)。

    需要強(qiáng)調(diào)指出的是,通過案例分析,我們發(fā)現(xiàn)我們的評估集在全面性方面存在局限性,這導(dǎo)致了模型分?jǐn)?shù)的改善與實(shí)際用戶體驗(yàn)之間的不一致。構(gòu)建一個高質(zhì)量的評估集是一個巨大的挑戰(zhàn),因?yàn)樗枰诒3制胶怆y易程度的同時包含盡可能多樣的使用場景。如果評估樣本過于困難,那么所有模型的表現(xiàn)將會很差,更難辨別各種訓(xùn)練數(shù)據(jù)和策略的效果;相反,如果評估樣本都相對容易,評估將失去其比較價值。同樣地,評估集多樣性不夠的時候,容易出現(xiàn)評估有偏(例如當(dāng)某個模型的訓(xùn)練和評估領(lǐng)域或任務(wù)類型十分一致)。二者的聯(lián)合分布還可能導(dǎo)致部分任務(wù)上難易區(qū)分度高,部分任務(wù)上難易區(qū)分度低,進(jìn)一步加大評估的難度和有效性。此外,必須確保評估數(shù)據(jù)與訓(xùn)練數(shù)據(jù)保持獨(dú)立。

    圖 1 評估集的難易度與多樣性分布示意圖

    基于這些觀察,我們謹(jǐn)慎地提醒不要假設(shè)模型僅通過在有限數(shù)量的測試樣本上獲得良好結(jié)果就已經(jīng)達(dá)到了與 ChatGPT 相當(dāng)?shù)男阅芩健N覀冋J(rèn)為,優(yōu)先發(fā)展全面評估集的持續(xù)發(fā)展具有重要意義。

    這篇工作中的相關(guān)數(shù)據(jù)和模型將會于近日在 BELLE 項(xiàng)目中開源。

    論文 2:A Comparative Study between Full-Parameter and LoRA-based Fine-Tuning on Chinese Instruction Data for Instruction Following Large Language Model

    論文地址:https://arxiv.org/pdf/2304.08109.pdf

    為了實(shí)現(xiàn)對大語言模型的指令調(diào)優(yōu),受限于資源和成本,許多研究者開始使用參數(shù)高效的調(diào)優(yōu)技術(shù),例如 LoRA,來進(jìn)行指令調(diào)優(yōu),這也取得了一些令人鼓舞的成果。相較于全參數(shù)微調(diào),基于 LoRA 的調(diào)優(yōu)在訓(xùn)練成本方面展現(xiàn)出明顯的優(yōu)勢。在這個研究報告中,我們選用 LLaMA 作為基礎(chǔ)模型,對全參數(shù)微調(diào)和基于 LoRA 的調(diào)優(yōu)方法進(jìn)行了實(shí)驗(yàn)性的比較。

    實(shí)驗(yàn)結(jié)果揭示,選擇合適的基礎(chǔ)模型、訓(xùn)練數(shù)據(jù)集的規(guī)模、可學(xué)習(xí)參數(shù)的數(shù)量以及模型訓(xùn)練成本均為重要因素。

    我們希望本文的實(shí)驗(yàn)結(jié)論能對大型語言模型的訓(xùn)練提供有益的啟示,特別是在中文領(lǐng)域,協(xié)助研究者在訓(xùn)練成本與模型性能之間找到更佳的權(quán)衡策略。

    實(shí)驗(yàn)結(jié)果如下:

    其中的 Average Score 是基于本項(xiàng)目集目前開放的 1000 條評估集合得到的(見下文評估數(shù)據(jù)部分)。LLaMA-13B + LoRA (2M) 代表使用 LLaMA-13B 作為基礎(chǔ)模型和 LoRA 訓(xùn)練方法,在 2M 指令數(shù)據(jù)上進(jìn)行訓(xùn)練的模型;而 LLaMA-7B + FT (2M) 代表了一個使用全參數(shù)微調(diào)進(jìn)行訓(xùn)練的模型。所有這些實(shí)驗(yàn)都是在 8 塊 NVIDIA A100-40GB GPU 上進(jìn)行的,實(shí)驗(yàn)細(xì)節(jié)請參考我們的論文。

    根據(jù)評估,我們的模型在數(shù)學(xué)任務(wù)上表現(xiàn)不佳,得分大多低于 0.5。為了驗(yàn)證 LoRA 在特定任務(wù)上的適應(yīng)能力,我們使用增量 0.25M 數(shù)學(xué)數(shù)據(jù)集(math_0.25M)來提升模型的數(shù)學(xué)能力,并與增量微調(diào)方法作為對比。從實(shí)驗(yàn)結(jié)果可以看出,增量微調(diào)仍然表現(xiàn)更好,但需要更長的訓(xùn)練時間。LoRA 和增量微調(diào)都提高了模型的整體性能。從論文附錄中的詳細(xì)數(shù)據(jù)可以看出,LoRA 和增量微調(diào)都在數(shù)學(xué)任務(wù)中顯示出顯著的改進(jìn),而只會導(dǎo)致其他任務(wù)的輕微性能下降。

    總體而言:1) 選擇基礎(chǔ)模型對于 LoRA 調(diào)整的有效性具有顯著影響;2)增加訓(xùn)練數(shù)據(jù)量可以持續(xù)提高 LoRA 模型的有效性;3)LoRA 調(diào)整受益于模型參數(shù)的數(shù)量。對于 LoRA 方案的使用,我們建議可以在已經(jīng)完成了指令學(xué)習(xí)的模型的基礎(chǔ)上針對特定任務(wù)做 loRA 的自適應(yīng)訓(xùn)練。

    同樣地,該論文中的相關(guān)模型也會盡快開放在 BELLE 項(xiàng)目中。

    持續(xù)完善的訓(xùn)練和評估數(shù)據(jù)

    目前 BELLE 已經(jīng)開放的數(shù)據(jù)分為兩部分:最近開放的 10M 中文數(shù)據(jù)集與早前開放的 1.5M 中文數(shù)據(jù)集。

    10M 中文數(shù)據(jù)集

    包含數(shù)個由 BELLE 項(xiàng)目產(chǎn)生的不同指令類型、不同領(lǐng)域的子集。目前正在逐步整理中,將會逐漸發(fā)布。

    School Math:包含約 25 萬條生成的中文數(shù)學(xué)題數(shù)據(jù),包含解題過程Multiturn Chat:包含約 80 萬條生成的用戶與助手的多輪對話Generated Chat:包含約 40 萬條生成的給定角色的多輪對話train_2M_CN:包含約 200 萬條生成的多樣化指令任務(wù)數(shù)據(jù)

    評估數(shù)據(jù)

    如上文所述,評估數(shù)據(jù)的質(zhì)量對評估 LLM 的效果十分關(guān)鍵。BELLE 項(xiàng)目開放的中文評估集包含由 BELLE 項(xiàng)目產(chǎn)生的約 1000 條不同指令類型、不同領(lǐng)域的評估樣例,并試圖兼顧評估集的多樣性與難易度。評估集的數(shù)據(jù)分布見圖 2。

    多樣性方面,評估集涵蓋 extract、open qa、closed qa、rewrite、generation、summerization、classification、brainstorming、others 9 種任務(wù)類型,并涵蓋市場銷售、健康飲食、語言文學(xué)、旅行、多種編程語言、環(huán)保、音樂、歷史、廚藝、影視、體育賽事、醫(yī)學(xué)、金融、科技等多個主題。任務(wù)類型分布見圖 2 (a)。

    難易度方面,評估集目前盡可能加入了一些難度偏高的樣本,并且平衡評估集與標(biāo)注回復(fù)的平均指令長度分布。

    多終端模型推理和聊天應(yīng)用 ChatBELLE

    開源社區(qū)中已經(jīng)誕生了如 llama.cpp、GPT4ALL、WebLLM 等 LLM 離線部署加速方案。雖然這些項(xiàng)目已經(jīng)將動輒幾十 GB 的顯存需求和專業(yè) GPU 的算力需求降低至一般的消費(fèi)電子設(shè)備也可運(yùn)行,但大多仍然需要一些技能才可部署及體驗(yàn)。

    BELLE 希望進(jìn)一步拓展大語言模型的使用場景,讓更多用戶即使沒有專業(yè)設(shè)備也能感受到 LLM 帶來的幫助。提供了純離線、跨平臺的 BELLE 聊天應(yīng)用:結(jié)合 4bit 量化后的 ChatBELLE 模型、llama.cpp 和 Flutter 跨平臺 UI,用戶僅需安裝 app、下載模型,即可在各類移動設(shè)備上不需聯(lián)網(wǎng)本地體驗(yàn) ChatBELLE 模型。

    首先來看看效果:

    macOS

    在 M1 Max Macbook 上僅使用 CPU 實(shí)時運(yùn)行,無論是加載還是推理都十分迅速:

    相信隨著 LLM 端上推理相關(guān)算法和軟硬件技術(shù)的逐步發(fā)展,純離線端上模型的效果將越來越好。BELLE 項(xiàng)目將持續(xù)優(yōu)化 ChatBELLE 模型的性能和 App 功能,努力為更多用戶帶來更優(yōu)質(zhì)更豐富的體驗(yàn)。

    小結(jié)

    近兩個月,LLM 開源社區(qū)在基礎(chǔ)模型研究、模型指令微調(diào)、模型應(yīng)用場景等多方面的進(jìn)展稱得上日新月異、百花齊放。BELLE 項(xiàng)目組對這些進(jìn)展感到欣喜之余,也希望貢獻(xiàn)自己微薄之力,促進(jìn)開源 LLM,特別是中文開源 LLM 的發(fā)展。

    雖然在大家不懈努力下開源模型在效果方面已經(jīng)取得了長足進(jìn)步,甚至一些模型在個別方面已經(jīng)與 ChatGPT 甚至 GPT-4 效果比肩,我們?nèi)匀恍枰泵媾c OpenAI 的差距。目前,ChatGPT 的能力之多樣、指令跟隨和泛化能力之強(qiáng)、安全性之高,仍然需要開源社區(qū)腳踏實(shí)地地不斷提升來追趕。在全社區(qū)的共同努力下,希望大語言模型將真正屬于每一個人,能夠幫助到每一個人。

    標(biāo)簽:

今熱點(diǎn):飼養(yǎng)寵物如何做好家庭衛(wèi)生?寵物主人消毒誤區(qū)有哪些?
最后一頁
日本在线视频网_在线免费观看日本视频_97久久曰曰久久久_精品精品国产自在久久高清

          亚洲v中文字幕| 99re这里只有精品6| 国产清纯白嫩初高生在线观看91| 亚洲乱码一区二区三区在线观看| 欧美精品在欧美一区二区少妇| 欧美激情一二三区| 美腿丝袜亚洲综合| 国产三级精品三级| 欧美日韩美少妇| 欧美色网站导航| 26uuu亚洲综合色| 亚洲国产成人91porn| 成人av网在线| 亚洲亚洲精品在线观看| 精品福利一二区| 日韩精品电影在线| 国产色产综合色产在线视频| 欧美自拍丝袜亚洲| 中文字幕色av一区二区三区| 国产精品1区2区3区| 亚洲精品免费一二三区| 精品区一区二区| 天天色天天操综合| 国产调教视频一区| 欧美人动与zoxxxx乱| 亚洲精品老司机| 99这里都是精品| 在线国产电影不卡| 亚洲欧美在线观看| 成人免费看视频| 午夜a成v人精品| 中文字幕一区免费在线观看| 高清不卡一区二区在线| 亚洲国产成人av| 国产精品美女久久久久久| 国产剧情一区二区| 亚洲国产中文字幕在线视频综合| 国产喂奶挤奶一区二区三区| 黑人巨大精品欧美黑白配亚洲| 亚洲天堂免费在线观看视频| 久久亚区不卡日本| 国产主播一区二区| 亚洲动漫第一页| 亚洲天堂网中文字| 91论坛在线播放| 91麻豆精品国产自产在线| 五月婷婷久久综合| 国产精品每日更新| 久久品道一品道久久精品| 国产在线视频一区二区三区| 亚洲一区在线视频观看| 国产精品私人影院| a4yy欧美一区二区三区| 欧美伦理视频网站| 青青草视频一区| 一区二区三区高清在线| 国产精品剧情在线亚洲| 不卡视频一二三| 欧美精品视频www在线观看| 亚欧色一区w666天堂| 亚洲欧洲日产国产综合网| 国产色综合久久| 成人国产一区二区三区精品| 欧美日本不卡视频| 美女爽到高潮91| 亚洲成人在线观看视频| 亚洲影院久久精品| 国产精品电影院| 中文欧美字幕免费| 久久一区二区三区国产精品| 欧美成人女星排名| 国产精品69久久久久水密桃| 欧美日韩免费高清一区色橹橹 | 欧美在线看片a免费观看| 亚洲va在线va天堂| 亚洲精品一二三四区| 中文字幕视频一区| 中文字幕第一区第二区| 中文字幕精品在线不卡| 91麻豆蜜桃一区二区三区| 精品国产一区二区三区忘忧草| 国产成人精品亚洲777人妖| 欧美精品自拍偷拍| 国产资源精品在线观看| 欧美日韩一区二区三区免费看| 美女视频网站黄色亚洲| 色成年激情久久综合| 日本午夜精品一区二区三区电影 | 欧美成人r级一区二区三区| 国产乱码一区二区三区| 欧美日韩不卡视频| 国产精品亚洲综合一区在线观看| 亚洲成人精品一区二区| 欧美日韩中文字幕精品| 色先锋久久av资源部| 亚洲一区二区三区在线播放| 亚洲日本青草视频在线怡红院| 最新国产成人在线观看| 国产精品高潮久久久久无| 国产精品国产三级国产三级人妇| 国产女人18毛片水真多成人如厕| 国产香蕉久久精品综合网| 久久久久久久久久电影| 欧美国产欧美综合| 中文字幕va一区二区三区| 最新国产の精品合集bt伙计| 亚洲婷婷在线视频| 亚洲国产精品一区二区久久 | 555www色欧美视频| 成人免费观看视频| 久久亚洲精品小早川怜子| 久久精品一区二区三区不卡| 国产精品久久久久久久久久免费看| 国产精品色在线观看| 亚洲综合一区在线| 午夜免费久久看| 久久91精品久久久久久秒播| 欧美一级一区二区| 久久亚洲综合色一区二区三区| 国产精品日日摸夜夜摸av| 日韩毛片在线免费观看| 图片区小说区区亚洲影院| 在线免费av一区| 大尺度一区二区| 国产午夜精品久久久久久免费视 | 色综合久久综合中文综合网| 亚洲综合色在线| 亚洲成人www| 久久国产三级精品| 91精品国产美女浴室洗澡无遮挡| 99久久伊人精品| 亚洲三级电影网站| 天天av天天翘天天综合网色鬼国产| 精品午夜一区二区三区在线观看| 欧美mv日韩mv| 国产精品高清亚洲| 日本女人一区二区三区| 欧美一区二区三区系列电影| www精品美女久久久tv| 亚洲人成精品久久久久| 色八戒一区二区三区| 成人黄色电影在线| 日韩美女啊v在线免费观看| 午夜影视日本亚洲欧洲精品| 国产精品资源网站| 中文字幕免费不卡在线| 亚洲第一成人在线| 国产91在线|亚洲| 国产精品久久久久影视| 午夜a成v人精品| www.在线成人| 一区二区三区精品久久久| 欧美日韩日本视频| 国产亚洲一二三区| 性做久久久久久免费观看欧美| 欧美巨大另类极品videosbest | 欧美亚洲日本一区| 久久午夜电影网| 亚洲一区国产视频| 在线亚洲高清视频| 91丨porny丨最新| 亚洲综合小说图片| 在线不卡一区二区| 欧美国产国产综合| 蜜臀精品久久久久久蜜臀| 精品国精品自拍自在线| 亚洲色图.com| 国产精一区二区三区| 亚洲视频电影在线| 欧美日韩国产精品成人| 中文字幕成人av| 加勒比av一区二区| 国产精品国产成人国产三级| 在线观看精品一区| 国产农村妇女毛片精品久久麻豆 | 同产精品九九九| 91免费观看视频| 亚洲国产日韩在线一区模特| 日韩欧美国产1| 一区二区久久久久久| 北条麻妃国产九九精品视频| 亚洲一区二区av在线| 日韩精品一区二区三区视频| 亚洲一区在线观看免费观看电影高清| 国产成人精品免费在线| 亚洲综合999| 久久网这里都是精品| 一本色道久久综合亚洲91| 久久久欧美精品sm网站| 精品在线亚洲视频| 亚洲色图视频网| 日韩欧美国产一二三区| 亚洲v精品v日韩v欧美v专区| 久久伊人蜜桃av一区二区| 久久99精品久久久久| 亚洲免费观看视频| 欧美r级在线观看| 在线看一区二区| 亚洲丝袜另类动漫二区| aaa国产一区|