近日,合合信息在WAIC 2024上發(fā)布了用于大模型語(yǔ)料訓(xùn)練的“加速器”產(chǎn)品——TextIn智能文檔處理平臺(tái)。合合信息的思路是,從“煉丹”源頭的燃料出發(fā),通過(guò)標(biāo)準(zhǔn)化平臺(tái)進(jìn)行語(yǔ)料結(jié)構(gòu)化,提高數(shù)據(jù)預(yù)訓(xùn)練效率,幫助大模型廠(chǎng)商達(dá)成有效的模型性能提升和迭代。 國(guó)內(nèi)的大模型產(chǎn)業(yè)處于高速發(fā)展時(shí)期,面向各個(gè)細(xì)分領(lǐng)域的大模型如雨后春筍辦涌現(xiàn),例如處理文檔的kimi、豆包,用于制作ppt的天工、萬(wàn)知,但做到與chatgpt媲美確非常困難。業(yè)內(nèi)人士對(duì)這個(gè)現(xiàn)象的解釋是,高質(zhì)量的中文數(shù)據(jù)集實(shí)在緊缺,訓(xùn)模型時(shí)只能直接購(gòu)買(mǎi)外文標(biāo)注數(shù)據(jù)集或者直接采集開(kāi)源的國(guó)外語(yǔ)料庫(kù)作為外援。一旦“進(jìn)口語(yǔ)料”加入的訓(xùn)練參數(shù)量多了,就會(huì)出現(xiàn)跟ChatGPT相似的回答方式。 國(guó)內(nèi)外大模型數(shù)據(jù)集主要為英文,均源于許多開(kāi)源數(shù)據(jù)集進(jìn)行訓(xùn)練,如Common Crawl、RedPajama、BooksCorpus、The Pile、ROOT等。這部分?jǐn)?shù)據(jù)雖然量多,但質(zhì)量上卻良莠不齊。一大優(yōu)質(zhì)的中文語(yǔ)料數(shù)據(jù),沉睡在報(bào)告、論文、報(bào)紙等文檔里。 為緩解語(yǔ)料荒困境,合合信息推出了用于大模型語(yǔ)料訓(xùn)練的“加速器”產(chǎn)品——TextIn智能文檔處理平臺(tái)。在訓(xùn)練前期階段,使用“加速器”文檔解析引擎,破解書(shū)籍、論文、研報(bào)等文檔中的版面解析障礙,為模型訓(xùn)練與應(yīng)用輸送純凈的“燃料”;同時(shí),“加速器”搭載了文本向量化模型,以解決大模型“已讀亂回”的幻覺(jué)問(wèn)題。 合合信息此次發(fā)布的大模型“加速器TextIn智能文檔處理平臺(tái),由TextIn文檔解析、TextIn Embedding(文本向量數(shù)據(jù)模型)以及OpenKIE三大工具組成。從獲得海量數(shù)據(jù)到高價(jià)值數(shù)據(jù),預(yù)訓(xùn)練階段的語(yǔ)料處理十分關(guān)鍵。這意味著,作為一個(gè)平臺(tái)型產(chǎn)品,向大模型廠(chǎng)商和開(kāi)發(fā)者“遞鏟子”,其基礎(chǔ)的工具能力是否足夠扎實(shí),關(guān)系到種子用戶(hù)的購(gòu)買(mǎi)意愿。 基于這一思路,合合信息在產(chǎn)品設(shè)計(jì)階段提前做了幾件事。首先是場(chǎng)景前置,在未個(gè)性化階段提前給模型補(bǔ)充大量?jī)?yōu)質(zhì)的垂直領(lǐng)域Know-how,比如金融、法律、教育等,關(guān)注特定行業(yè)中的普遍痛點(diǎn),基于用戶(hù)訴求在產(chǎn)品設(shè)計(jì)時(shí)提供解決方案,進(jìn)而提高大模型加速器在核心應(yīng)用場(chǎng)景中表現(xiàn)能力。二是專(zhuān)注產(chǎn)品化,不只對(duì)客戶(hù)提供通用場(chǎng)景的API,而是提供更多工具型產(chǎn)品,降低應(yīng)用門(mén)檻,做到開(kāi)箱即用,這對(duì)技術(shù)資源較為薄弱的傳統(tǒng)企業(yè)、中小創(chuàng)業(yè)公司或個(gè)人開(kāi)發(fā)者來(lái)說(shuō)非常友好。 大模型變革的浪潮里,以數(shù)據(jù)為中心,成為行業(yè)人士從事大模型研發(fā)和應(yīng)用的共識(shí)。具體到實(shí)踐層面,大模型上游階段在文本解析、邏輯版面、文檔問(wèn)答等方面,仍有很多的提升工作可以做。 未來(lái),合合信息將繼續(xù)依托技術(shù)優(yōu)勢(shì),面向人工智能產(chǎn)業(yè)的不足提出解決辦法,助力大模型產(chǎn)業(yè)持續(xù)健康發(fā)展。 |