當前位置:首頁 > 芯聞號 > 充電吧
[導讀]在以AI技術為支持的推薦、搜索、廣告等業(yè)務中,點擊率預估(CTR)一直是技術攻堅的核心,同時也是AI技術在業(yè)務落地中最難實現(xiàn)的技術方向之一。近日,來自京東廣告團隊的一篇論文《Category-Spec

在以AI技術為支持的推薦、搜索、廣告等業(yè)務中,點擊率預估(CTR)一直是技術攻堅的核心,同時也是AI技術在業(yè)務落地中最難實現(xiàn)的技術方向之一。近日,來自京東廣告團隊的一篇論文《Category-Specific CNN for Visual-aware CTR Prediction at JD.com》,即《在京東,視覺助力點擊率預估—;—;基于給定類目信息的卷積神經(jīng)網(wǎng)絡》被KDD2020成功收錄。論文構建了一種基于特定類目的卷積神經(jīng)網(wǎng)絡(Category-Specific CNN, CSCNN),該算法有效利用了電商領域中豐富的商品類目信息,創(chuàng)新性的將商品類目信息與商品主圖共同作為主圖特征提取模塊的輸入,提取基于特定先驗類目信息的商品主圖特征,大大提高了CTR預估的準確度。

盡管京東的廣告業(yè)務在業(yè)界起步的比較晚,但增速卻讓人刮目相看。這其中很大一部分原因得益于AI技術在廣告業(yè)務的大范圍應用。據(jù)京東商業(yè)提升事業(yè)部廣告質量部負責人包勇軍介紹,京東機器學習在2015年正式應用在在線廣告中,初版排序模型使用淺層FM base的超稀疏模型,淺層模型時代的模型工作,主要著眼在業(yè)務理解和特征提取。這為以后模型發(fā)展技術路線奠定了一定的迭代基礎,相對于當時許多tree base model架構的業(yè)務線,京東更容易向神經(jīng)網(wǎng)絡遷移。在2016年,商業(yè)提升事業(yè)部部署LR-DNN模型架構,基于Theano框架離線訓練,自研在線severing服務。模型上線早于google的wide & deep模型發(fā)布,雖然較w&d模型設計和使用略顯粗糙,但是也是將深度學習算法引入廣告生產(chǎn)環(huán)境中的一次大版本升級,對于部門有舉足輕重的意義。2017年,商業(yè)提升事業(yè)部的算法部門將整個模型基礎架構進行升級,9N機器學習平臺進行內功修煉,內核遷移到工業(yè)界主流的TensorFlow平臺,完善作為工業(yè)生產(chǎn)平臺的所有配套模塊。

2018年后,模型算法進入業(yè)務建模時代,算法升級從特征加工、模型調參,邁向業(yè)務理解建模的新階段。模型迭代升級進入快車道,業(yè)務指標顯著增長。模型建模出現(xiàn)新的細分方向,同時,模型建模迭代也推動自研機器學習平臺9N的升級。京東將精力更多的放在用戶刻畫、預估商品刻畫、用戶和商品關系的建模上,同時致力于發(fā)現(xiàn)模型應用中的使用短板,解決模型規(guī)模、學習效率、參數(shù)更新實時性等關鍵技術問題:

Multi task DCN主要解決了兩個問題。首先將LR-DNN升級到DCN,將算法工程師從特征選擇交叉的繁重工作中解放。其次采用多路輸出的模型解決position bias。

User Memory Net靜態(tài)用戶刻畫。長期行為更致力于刻畫用戶內在屬性和偏好,并可以排除由外界因素導致的用戶短期興趣波動。由于使用了很長的用戶行為,在線serving架構設計存在難點。

Category Specific CNN (CSCNN)是一種使用CNN抽取圖像信息,并和CTR任務端到端聯(lián)合優(yōu)化的建模方法。一方面,需要考量高效離線訓練及線上serving的方法。另一方面,和傳統(tǒng)只以圖片為輸入的CNN不同,CSCNN將電商場景下豐富、具有強視覺先驗的“商品類目標注”作為CNN輸入的一部分,降低CNN訓練的難度。CSCNN可以從商品圖中提取到標題/類目等特征刻畫不出的細節(jié),并對冷啟商品有更好的泛化。

KFAtt(KF Attention model for user behavior sequence)是用戶實時行為序列建模的方法。整體我們采用Transformer的框架建模時序及用戶行為和當前target的關聯(lián),是綜合考量線上serving和后期迭代的擴展性的技術選型,實驗驗證效果優(yōu)于流行的DIN和DIEN。我們進一步指出傳統(tǒng)attention存在的問題,并直接對attention機制做出了改進。在用戶興趣多變、異質行為差異巨大電商場景下,KFAtt比傳統(tǒng)attention表現(xiàn)出更優(yōu)的效果。

Realtime Graph Convolutional Network (RGCN)是用戶-商品實時關系圖建模的方法。對于長尾和冷起階段的商品,借助關系圖可以得到更豐富的表示;對于活動、促銷,實時關系圖也可以更快捕獲商品的時變特性。

目前機器學習已經(jīng)在京東廣告的各個環(huán)節(jié)得到深入應用。后續(xù)我們會逐一為大家進行詳細介紹。此次入圍KDD的論文,就是機器學習在廣告CTR模型生產(chǎn)環(huán)境中結合圖像信息的CTR建模的應用,接下來讓我們一起詳細了解一下這篇論文

一、任務背景:

廣告點擊率(Click Through Rate, CTR)預測問題,即已知用戶、廣告、環(huán)境等信息,預測該用戶點擊該廣告的概率,是廣告領域的最根本問題之一。精準的廣告點擊率預測是整個廣告系統(tǒng)的基石,直接關系到京東數(shù)億活躍用戶的使用體驗與百萬廣告主的切身商業(yè)利益。

在電商領域中,商品普遍以商品主圖搭配文字描述的格式展示給消費者。相比于文字描述,商品主圖往往包含更多的細節(jié)的、直觀的商品信息,具有更強的視覺沖擊力,直接影響用戶偏好。因此,提取商品主圖中的豐富的視覺特征,能有效挖掘商品特性,從而為CTR預測提供強有力的支持。

圖一、電商廣告示意圖,紅框內為商品主圖。因其占面積大、表達的信息多和更吸引的用戶注意力,故其特征的有效提取,對于后續(xù)CTR預測,有著至關重要的作用。

我們的目標是:在百億規(guī)模的訓練樣本上,構建一種CNN有效抽取視覺特征,并和CTR任務聯(lián)合訓練。與此同時,滿足線上系統(tǒng)的平響要求。

二、現(xiàn)有方法的問題:

引入視覺信息的CTR預估中,業(yè)界通常會采用一種后融合的方式。做法是:采用現(xiàn)成、經(jīng)典的CNN結構(Inception[1], ResNet[2], SeNet[3] 等)抽取圖片特征,并與其他非視覺特征(如廣告商品的類目信息、用戶的個人特征、廣告位置時間等)以后融合的方式,一起作為CTR預估模型的輸入。

圖二、現(xiàn)有的商品主圖特征提取技術的缺點,紅色虛線框為現(xiàn)有技術缺失部分。主圖特征提取模塊缺失了商品類目作為CNN的輸入,無法精確地提取基于特定商品類目的主圖特征,限制了CTR預估的準確性。

然而這種業(yè)界通用的做法,一直面臨兩個重要的問題:

工業(yè)級廣告CTR預估系統(tǒng)需要滿足線下快速訓練和線上低延遲服務兩項重要技術要求。 然而,由于CNN的運算速度遠遠慢于CTR預估系統(tǒng)的其他模塊,它可能成為整個CTR預估系統(tǒng)的運算瓶頸。所以,在實際CTR預估系統(tǒng)中應用CNN來提取圖像特征通常是極為困難的。

現(xiàn)有的商品主圖特征提取模塊,絕大多數(shù)搬遷自經(jīng)典的、原本用于圖像分類的CNN結構。在原本的圖像分類任務中,圖像的類別是未知的、待預測的,因此這些CNN結構并沒有把圖像的類別作為輸入。而在CTR預估中,電商商品的類別是被清晰的標注的,并且極有可能含有能輔助圖像特征提取的,豐富的視覺先驗。在業(yè)界常用的,視覺特征與非視覺特征“后融合”的結構中,CNN沒有有效利用“商品類別”這一重要信息,從而可能提取到與當前類目無關的特征,浪費了CNN有限的表達能力。相反,如果我們能設計一種新的CNN結構,有效利用商品類別信息,那么提取到的基于特定類目的視覺特征,會極大地降低CNN的訓練難度。

三、我們的算法原理:

旨在有效利用電商領域中豐富的商品類目信息,我們將商品類目信息與商品主圖共同作為主圖特征提取模塊的輸入,從而提取基于特定先驗類目信息的商品主圖特征。算法命名為基于特定類目的卷積神經(jīng)網(wǎng)絡(Category-Specific CNN, CSCNN)。相比于現(xiàn)有的主圖特征提取技術,我們提取的主圖特征能更為精確地描述商品特征,觸達用戶偏好,提升CTR預估的性能。

設計靈感最初來源于SeNet 和CBAM[4],即用輕量級的自身注意力網(wǎng)絡刻畫卷積特征之間的內在聯(lián)系。亮點在于我們創(chuàng)新性地在每一個卷積層,都加入了類目信息,從而使基于特定類目的注意力網(wǎng)絡能學到既重要又專注于特定類目的視覺特征。

圖三、商品主圖特征提取的流程圖,為了清晰表述,本圖只突出單一層的變換模塊。實際中,該Attention結構可加在多層卷積網(wǎng)絡中。

商品主圖I通過多層卷積神經(jīng)網(wǎng)絡處理。在每一層CNN后,本層CNN的輸出一個特征圖張量(Tensor)F,該特征圖張量經(jīng)過通道注意力模塊Mc 的變換后,調整為新的特征圖張量F’,進一步經(jīng)過空間注意力模塊Ms變換后,調整為特征圖張量F’’,這個特征圖張量F’’作為本層輸出的特征圖,被輸入到下一層CNN中處理。如圖三。

我們來具體介紹下,通道注意力和空間注意力模塊內部結構。

CNN的輸出特征圖張量F,先經(jīng)過通道注意力模塊Mc調整為F’,具體流程如圖四(上): 首先,特征圖F經(jīng)過空間維度的壓縮,得到了C維的Maxpooling和Avgpooling向量。兩者分別拼接上C’維的類目特征向量Akc通過全連接層變換為兩個C維向量后相加,得到一個C維的通道注意力向量,與原特征圖廣播后元素相乘后,得到調整后的特征圖張量F’??偨Y為:

其中類目特征向量Akc,因類目k而異,和其他網(wǎng)絡參數(shù)一起隨機初始化后通過反向傳播算法迭代優(yōu)化。

圖四、通道注意力模塊和空間注意力模塊

通道注意力調整后的特征圖張量F’,經(jīng)過空間注意力模塊Ms調整為F’’,具體流程如圖四(下):首先,特征圖F’經(jīng)過通道維度的壓縮,得到了WH維的Maxpooling和Avgpooling矩陣。兩者拼接上WH維的類目特征向量Aks,共同通過7*7的卷積核變換后,得到一個HW維的空間注意力矩陣,與原特征圖廣播元素相乘后,得到調整后的特征圖張量F’’??偨Y為:

其中類目特征向量Aks,因類目k而異,和其他網(wǎng)絡參數(shù)一起隨機初始化后通過反向傳播算法迭代優(yōu)化。

經(jīng)通道和空間維度兩次調整后的特征圖張量F’’,已經(jīng)包含了類目k的先驗信息,被作為了下一個卷幾層的輸入。以上兩個調整模塊,可以用在各個卷積層中,使得整個網(wǎng)絡能提取基于特定類目先驗信息的商品主圖特征。

四、我們的架構流程:

圖五、在線模型系統(tǒng)架構

離線訓練:CSCNN模塊與整個CTR預估預估模型(Deep & Cross Net[5])共同訓練。為了解決CNN的計算瓶頸問題,加速訓練,我們采用了一種特殊的采樣方式[6]。集中25個,有相同圖像的廣告訓練樣本在同一個訓練Batch中。如此CNN圖像特征提取可以只計算一次,然后廣播到這個訓練Batch中的25個樣本?,F(xiàn)在我們可以在一天內完成150億廣告展示樣本、1.77億圖片的聯(lián)合訓練。

離線詞表生成:商品圖像和商品類目信息被共同輸入到訓練好的CSCNN模塊中,計算商品圖像的視覺特征向量。在線預估系統(tǒng)加載這些視覺特征,作為CNN模塊的替代,輸入到CTR預估系統(tǒng)中。結合一定的頻次控制策略,20GB的詞表可以覆蓋第二天的90%的線上流量。

在線服務:在線服務系統(tǒng)接收到一條CTR預估請求后,會根據(jù)廣告ID,從圖像特征詞表中直接查詢視覺特征向量,與非視覺特征一起輸入到CTR預估模型中計算。在3 Million/second的流量峰值中,我們的CPU在線服務系統(tǒng)能把TP99延遲嚴格控制在20ms以內。

五、實驗效果:

我們的實驗設計主要關注于兩方面:

測試CSCNN模塊的,有效提取特定類目信息的視覺特征的能力。為了排除龐大的CTR系統(tǒng)中的多方干擾,我們選擇了Amazon Benchmark 數(shù)據(jù)集,和簡單的線性CTR預估模型Bayesian Personalized Ranking (BPR).

我們進一步測試CSCNN對于整個CTR系統(tǒng)的提升。包括在京東廣告系統(tǒng)收集的150億訓練樣本的工業(yè)數(shù)據(jù)集,和真實流量的Online A/B Test.

具體結果如圖:

圖六、Amazon Benckmark數(shù)據(jù)集上的AUC比較。我們的算法顯著優(yōu)于State-of-the-Art。得益于圖像信息和商品類目信息的加入和有效早融合

圖七、Amazon Benckmark數(shù)據(jù)集上的AUC比較。不同的Attention機制中,都可以通過加入CSCNN模塊獲得一致提升。證明了CSCNN的優(yōu)秀適應性。

圖八、Amazon Benckmark數(shù)據(jù)集上的AUC比較。網(wǎng)絡Backbone結構,都可以通過加入CSCNN模塊獲得一致提升。證明了CSCNN的優(yōu)秀適應性

圖九、工業(yè)數(shù)據(jù)集 & Online A/B Test。CSCNN貢獻了線下AUC和線上CTR的顯著提升。

五、結論:

我們提出了一種基于給定類目信息的卷積神經(jīng)網(wǎng)絡。通過CNN圖像特征提取與商品類目信息的早融合網(wǎng)絡結構,有效的強調了既重要、又直接跟特定類目相關的視覺特征。從而顯著提升CTR預估的準確性。匹配高效的基礎架構,CSCNN現(xiàn)在被應用到京東搜索廣告系統(tǒng)的主流量中,服務于數(shù)億活躍用戶。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或將催生出更大的獨角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯(lián)合牽頭組建的NVI技術創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術創(chuàng)新聯(lián)...

關鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉
關閉