當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀]    本系列文章中,我想先介紹成功實施LTR背后的關(guān)鍵算法,從線性回歸開始,逐步到梯度 boosTIng(不同種類的boosTIng算法一起)、RankSVM和隨機(jī)森林等算法。   LT

   本系列文章中,我想先介紹成功實施LTR背后的關(guān)鍵算法,從線性回歸開始,逐步到梯度 boosTIng(不同種類的boosTIng算法一起)、RankSVM和隨機(jī)森林等算法。

  LTR首先是一個回歸問題

  對于本系列的文章,正如你在前一篇及文檔中了解到的,我想把LTR映射為一個更加通用的問題:回歸?;貧w問題需要訓(xùn)練一個模型,從而把一組數(shù)值特征映射到一個預(yù)測數(shù)值。

  舉個例子:你需要什么樣的數(shù)據(jù)才能預(yù)測一家公司的利潤?可能會有,手邊的歷史公共財務(wù)數(shù)據(jù),包括雇員數(shù)量、股票價格、收益及現(xiàn)金流等。假設(shè)已知某些公司的數(shù)據(jù),你的模型經(jīng)過訓(xùn)練后用于預(yù)測這些變量(或其子集)的函數(shù)即利潤。對于一家新公司,你可以使用這個函數(shù)來預(yù)測該公司的利潤。

  LTR同樣是一個回歸問題。你手頭上有一系列評價數(shù)據(jù),來衡量一個文檔與某個查詢的相關(guān)度等級。我們的相關(guān)度等級取值從A到F,更常見的情況是取值從0(完全不相關(guān))到4(非常相關(guān))。如果我們先考慮一個關(guān)鍵詞搜索的查詢,如下示例:

  當(dāng)構(gòu)建一個模型來預(yù)測作為一個時間信號排序函數(shù)的等級時,LTR就成為一個回歸問題。 相關(guān)度搜索中的召回,即我們所說的信號,表示查詢和文檔間關(guān)系的任意度量;更通用的名稱叫做特征,但我個人更建議叫長期信號。原因之一是,信號是典型的獨(dú)立于查詢的——即該結(jié)果是通過度量某個關(guān)鍵詞(或查詢的某個部分)與文檔的相關(guān)程度;某些是度量它們的關(guān)系。因此我們可以引入其他信號,包括查詢特有的或者文檔特有的,比如一篇文章的發(fā)表日期,或者一些從查詢抽取出的實體(如“公司名稱”)。

  來看看上面的電影示例。你可能懷疑有2個依賴查詢的信號能幫助預(yù)測相關(guān)度:

  一個搜索關(guān)鍵詞在標(biāo)題屬性中出現(xiàn)過多少次

  一個搜索關(guān)鍵詞在摘要屬性中出現(xiàn)過多少次

  擴(kuò)展上面的評價,可能會得到如下CSV文件所示的回歸訓(xùn)練集,把具體的信號值映射為等級:

  你可以像線性回歸一樣應(yīng)用回歸流程,從而通過其他列來預(yù)測第一列。也可以在已有的搜索引擎像Solr或ElasTIcsearch之上來構(gòu)建這樣一個系統(tǒng)。

  我回避了一個復(fù)雜問題,那就是:如何獲得這些評價?如何知道一個文檔對一個查詢來說是好還是壞?理解用戶分析?專家人工分析?這通常是最難解決的——而且是跟特定領(lǐng)域非常相關(guān)的!提出假設(shè)數(shù)據(jù)來建立模型雖然挺好的,但純屬做無用功!

  線性回歸LTR

  如果你學(xué)過一些統(tǒng)計學(xué),可能已經(jīng)很熟悉線性回歸了。線性回歸把回歸問題定義為一個簡單的線性函數(shù)。比如,在LTR中我們把上文的第一信號(一個搜索關(guān)鍵詞在標(biāo)題屬性中出現(xiàn)過多少次)叫做t,第二信號(一個搜索關(guān)鍵詞在摘要屬性中出現(xiàn)過多少次)叫做o,我們的

  

  模型能生成一個函數(shù)s,像下面這樣對相關(guān)度來打分:

  我們能評估出最佳擬合系數(shù)c0,c1,c2等,并使用最小二乘擬合的方法來預(yù)測我們的訓(xùn)練數(shù)據(jù)。這里就不贅述了,重點是我們能找到c0,c1,c2等來最小化實際等級g與預(yù)測值s(t,o)之間的誤差。如果溫習(xí)下線性代數(shù),會發(fā)現(xiàn)這就像簡單的矩陣數(shù)學(xué)。

  使用線性回歸你會更滿意,包括決策確實是又一個排序信號,我們定義為t*o?;蛘吡硪粋€信號t2,實踐中一般定義為t^2或者log(t),或者其他你認(rèn)為有利于相關(guān)度預(yù)測的最佳公式。接下來只需要把這些值作為額外的列,用于線性回歸學(xué)習(xí)系數(shù)。

  任何模型的設(shè)計、測試和評估是一個更深的藝術(shù),如果希望了解更多,強(qiáng)烈推薦統(tǒng)計學(xué)習(xí)概論。

  使用sklearn實現(xiàn)線性回歸LTR

  為了更直觀地體驗,使用Python的sklearn類庫來實現(xiàn)回歸是一個便捷的方式。如果想使用上文數(shù)據(jù)通過線性回歸嘗試下簡單的LTR訓(xùn)練集,可以把我們嘗試的相關(guān)度等級預(yù)測值記為S,我們看到的信號將預(yù)測該得分并記為X。

  我們將使用一些電影相關(guān)度數(shù)據(jù)嘗試點有趣的事情。這里有一個搜索關(guān)鍵詞“Rocky”的相關(guān)度等級數(shù)據(jù)集。召回我們上面的評判表,轉(zhuǎn)換為一個訓(xùn)練集。一起來體驗下真實的訓(xùn)練集(注釋會幫助我們了解具體過程)。我們將檢查的三個排序信號,包括標(biāo)題的TF*IDF得分、簡介的TF*IDF得分以及電影觀眾的評分。

  所以接下來直接來到代碼的部分!下面的代碼從一個CSV文件讀取數(shù)據(jù)到一個numpy數(shù)組;該數(shù)組是二維的,第一維作為行,第二維作為列。在下面的注釋中可以看到很新潮的數(shù)組切片是如何進(jìn)行的:

 

  不錯!我們已準(zhǔn)備好進(jìn)行一個簡單線性回歸了。這里我們使用一個經(jīng)典的判斷方法:方程比未知數(shù)多!因此我們需要使用常最小二乘法來估算特征rockySignals和等級rockyGrades間的關(guān)系。很簡單,這就是numpy線性回歸所做的:

  漂亮!相關(guān)度解決了?。ㄕ娴膯??)我們可以使用這些來建立一個排序函數(shù)。我們已經(jīng)學(xué)習(xí)到了分別使用什么樣的權(quán)重到標(biāo)題和簡介屬性。

  截至目前,我忽略了一部分事項,即我們需要考量如何評價模型和數(shù)據(jù)的匹配度。在本文的結(jié)尾,我們只是想看看一般情況下這些模型是如何工作。但不只是假設(shè)該模型非常適合訓(xùn)練集數(shù)據(jù)是個不錯的想法,總是需要回退一些數(shù)據(jù)來測試的。接下來的博文會分別介紹這些話題。

  使用模型對查詢打分

  我們通過這些系數(shù)可以建立自己的排序函數(shù)。做這些只是為了描述目的,sk-learn的線性回歸帶有預(yù)測方法,能評估作為輸入的模型,但是構(gòu)建我們自己的更有意思:

  

  結(jié)果得分分別是Rambo 3.670以及First Blood 3.671。

  非常接近!First Blood稍微高于Rambo一點兒獲勝。原因是這樣——Rambo是一個精確匹配,而First Blood是Rambo電影前傳!因此我們不應(yīng)該真的讓模型如此可信,并沒有那么多的例子達(dá)到那個水平。更有趣的是簡介得分的系數(shù)比標(biāo)題得分的系數(shù)大。所以至少在這個例子中我們的模型顯示,簡介中提到的關(guān)鍵字越多,最終的相關(guān)度往往越高。至此我們已經(jīng)學(xué)習(xí)到一個不錯的處理策略,用來解決用戶眼里的相關(guān)度!

  把這個模型加進(jìn)來會更有意思,這很好理解,并且產(chǎn)生了很合理的結(jié)果;但是特征的直接線性組合通常會因為相關(guān)度應(yīng)用而達(dá)不到預(yù)期。由于缺乏這樣的理由,正如Flax的同行所言,直接加權(quán)boosTIng也達(dá)不到預(yù)期。

  為什么?細(xì)節(jié)決定成??!

  從前述例子中可以發(fā)現(xiàn),一些非常相關(guān)的電影確實有很高的TF*IDF相關(guān)度得分,但是模型卻傾向于概要字段與相關(guān)度更加密切。實際上何時標(biāo)題匹配以及何時概要匹配還依賴于其他因素。

  在很多問題中,相關(guān)度等級與標(biāo)題和摘要屬性的得分并不是一個簡單的線性關(guān)系,而是與上下文有關(guān)。如果就想直接搜索一個標(biāo)題,那么標(biāo)題肯定會更加匹配;但是對于并不太確定想要搜索標(biāo)題,還是類別,或者電影的演員,甚至其他屬性的情形,就不太好辦了。

  換句話說,相關(guān)度問題看起來并非是一個純粹的最優(yōu)化問題:

  

  實踐中的相關(guān)度要更加復(fù)雜。并沒有一個神奇的最優(yōu)解,寧可說很多局部最優(yōu)依賴于很多其他因子的! 為什么呢?換句話說,相關(guān)度看起來如圖所示:

  

  可以想象這些圖(吳恩達(dá)機(jī)器學(xué)習(xí)課程中的干貨)用于展示“相關(guān)度錯誤” —— 離我們正在學(xué)習(xí)的分?jǐn)?shù)還有多遠(yuǎn)。兩個θ變量的映射表示標(biāo)題和摘要的相關(guān)度得分。第一張圖中有一個單一的最優(yōu)值,該處的“相關(guān)度錯誤”最小 —— 一個理想的權(quán)重設(shè)置應(yīng)用這兩個查詢。第二個更加實際一些:波浪起伏、上下文相關(guān)的局部最小。有時與一個非常高的標(biāo)題權(quán)重值有關(guān),或者是一個非常低的標(biāo)題權(quán)重!

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉