OPPO登頂CLUE與MUGE,刷新中文自然語言理解與圖文多模態(tài)雙榜記錄
2022年11月9日,OPPO語音語義研究部融智團隊提出的中文預訓練大模型CHAOS ,在中文自然語言理解測評基準CLUE上登頂,以30億參量同時刷新了CLUE總排行榜、CLUE分類任務排行榜和CLUE閱讀理解排行榜的最好成績。其中在“AFQMC,TNEWS,CSL,CHID1.1”4個賽道的成績超過了人類識別精確準確度,總成績距離超越人類表現(xiàn)僅差0.1。
同期,在業(yè)界首個大規(guī)模中文多模態(tài)評測基準MUGE上,該團隊自主訓練的中文多模態(tài)預訓練模型也在綜合“圖文檢索、看圖說話、文本到圖像生成”三個賽道的總成績上位列總榜第一名。
OPPO中文預訓練大模型CHAOS登頂CLUE
OPPO中文多模態(tài)預訓練模型登頂MUGE
CLUE(Chinese Language Understanding Evaluation)是中文自然語言理解最權威測評榜單之一,包含了文本分類、閱讀理解、句間關系等眾多語義分析和語義理解類子任務,旨在推動NLP(自然語言處理)訓練模型技術的不斷進步和突破,對學術界和工業(yè)界都產(chǎn)生了較大的影響。
MUGE(Multimodal Understanding and Generation Evaluation)是業(yè)界首個大規(guī)模中文多模態(tài)評測基準,由達摩院聯(lián)合浙江大學、阿里云天池平臺聯(lián)合發(fā)布,中國計算機學會計算機視覺專委會(CCF-CV專委)協(xié)助推出,旨在幫助中文多模態(tài)研究人員全方位評估算法模型。
NLP(自然語言處理)技術是人工智能領域的一個核心研究方向,其目的是使得計算機具備人類的聽、說、讀、寫等能力,并利用知識和常識進行推理和決策。而圖文融合的多模態(tài)能力的建設,目前工作主要集中在建立圖像模態(tài)和文本模態(tài)的聯(lián)系,相關能力的構(gòu)建能夠廣泛落地到搜索、推薦、服飾設計、智能文案等真實場景中。
“融合多種智能,研發(fā)統(tǒng)一的基礎模型”是OPPO語音語義研究部融智團隊的目標,也是“融智”二字的含義。未來融智團隊將在推進感知認知融合,更可控/可編輯的視覺生成,及促進工業(yè)化落地轉(zhuǎn)化的模型小型化等方向上繼續(xù)突破。