幕思城>電商行情>抖音小店>開(kāi)店入駐>閑魚(yú)搜索召回升級(jí):向量召回&個(gè)性化召回

    閑魚(yú)搜索召回升級(jí):向量召回&個(gè)性化召回

    2022-11-28|09:05|發(fā)布在分類 / 開(kāi)店入駐| 閱讀:161

    在搜索系統(tǒng)中,召回環(huán)節(jié)位于排序漏斗的最底層,決定了下游排序的空間大小,其重要程度毋庸置疑,在閑魚(yú)搜索場(chǎng)景亦是如此。然而由于機(jī)器和人力資源的限制,長(zhǎng)期以來(lái)閑魚(yú)搜索的召回都是使用最簡(jiǎn)單的基于文本的召回方式,其優(yōu)化迭代方式也只是在基礎(chǔ)商品字段(標(biāo)題、描述)之上,增加擴(kuò)展字段?;诖?,季度優(yōu)化前,閑魚(yú)主搜的召回整體方案如下:

    • Query側(cè):通過(guò)Query改寫(xiě),擴(kuò)展Query語(yǔ)義,緩解用戶側(cè)搜索詞表達(dá)不充分的問(wèn)題,間接實(shí)現(xiàn)擴(kuò)召回;
    • Item側(cè):通過(guò)增加擴(kuò)展字段,強(qiáng)化商品側(cè)的表征,具體的拓展字段包括:
    • 結(jié)構(gòu)化信息,如類目、算法識(shí)別的CPV(屬性值,如商品品牌、型號(hào)、顏色等);
    • 商品圖像識(shí)別的標(biāo)簽,如OCR識(shí)別出的商品圖片中的描述字段;
    • I2I商品信息遷移:通過(guò)swing等I2I技術(shù),引入與trigger商品相似商品的基礎(chǔ)信息作為文本召回字段;
    • 同款、一鍵轉(zhuǎn)賣商品信息遷移,同I2I,只不過(guò)擴(kuò)展信息通過(guò)確定的關(guān)聯(lián)商品得到;
    • 其他商品預(yù)測(cè)Tag拓展;

    雖然通過(guò)如上擴(kuò)充索引字段的方式,有效提升了搜索的召回能力。但數(shù)據(jù)分析發(fā)現(xiàn),召回不足的情況仍有較大的搜索PV占比,說(shuō)明召回側(cè)還有比較大的空間可挖(具體數(shù)據(jù)這里不做詳細(xì)羅列)。而優(yōu)化召回不足大體可以從兩個(gè)方向發(fā)力:1)算法策略層面進(jìn)行優(yōu)化,提升召回能力;2)供給層面優(yōu)化,引導(dǎo)增加商品供給,或使賣家優(yōu)化商品供給描述。這里則討論前者,首先是當(dāng)前系統(tǒng)主要有以下不足之處:

    1. Query召回商品仍然使用純文本方式召回,Term命中規(guī)則嚴(yán)格,缺少語(yǔ)義匹配能力。
    2. 當(dāng)前召回個(gè)性化能力不足,或者說(shuō)沒(méi)有兼顧效率特征,召回截?cái)嗪罂赡軗p失更具個(gè)性化的相關(guān)商品。

    對(duì)于1,本季度我們?cè)黾踊谡Z(yǔ)義的向量召回,緩解召回語(yǔ)義能力不足的問(wèn)題;對(duì)于2則有很多思路,如考慮成交效率的向量召回、u2i、u2i2i等,這里做了一些嘗試,發(fā)現(xiàn)有時(shí)常規(guī)的方案無(wú)法直接照搬到閑魚(yú)場(chǎng)景,而最終本次優(yōu)化我們優(yōu)先采用了基于行為的I2I(準(zhǔn)確說(shuō)是Q2I2I),同時(shí)為了彌補(bǔ)長(zhǎng)尾query召回仍然不足的問(wèn)題,我們補(bǔ)充了基于多模態(tài)內(nèi)容的I2I,從文本和視覺(jué)維度召回相關(guān)商品。

    對(duì)于上述擴(kuò)召回的候選,我們使用類目、核心詞、語(yǔ)義相關(guān)性等維度保證相關(guān)性,召回升級(jí)后整體模塊構(gòu)成如下:

    后面的章節(jié),將依次分模塊進(jìn)行詳細(xì)方案的介紹。

    語(yǔ)義向量召回

    建模目標(biāo)

    搜索向量召回的最理想結(jié)果是盡可能檢索出“相關(guān)且高成交效率”的商品。由于閑魚(yú)搜索之前沒(méi)有向量召回鏈路,因此一期我們決定先從“相關(guān)性”目標(biāo)出發(fā),設(shè)計(jì)基于純語(yǔ)義的向量召回,目的是彌補(bǔ)文本召回語(yǔ)義泛化能力弱的問(wèn)題。其難點(diǎn)主要為閑魚(yú)場(chǎng)景特色下Query和商品的語(yǔ)義表征建模,以及線上機(jī)制策略的兼容;而對(duì)于“成交效率”目標(biāo)的兼顧,本季度也做了相應(yīng)的實(shí)驗(yàn),但是由于閑魚(yú)場(chǎng)景的特殊性,暫時(shí)無(wú)法直接照搬常規(guī)方法,需要進(jìn)一步探索,這點(diǎn)在本章結(jié)尾進(jìn)行討論。

    模型設(shè)計(jì)

    閑魚(yú)搜索的語(yǔ)義向量模型同大多數(shù)的場(chǎng)景一樣,使用DSSM架構(gòu),Baseline Encoder為預(yù)訓(xùn)練的Electra-Small模型(相對(duì)于Bert-base效果微跌,但模型大小由300M+縮小到47M,提升了運(yùn)行效率)。為了豐富Query語(yǔ)義,彌補(bǔ)Query表達(dá)不充分的問(wèn)題,我們?cè)黾恿伺R近Query表征(基于行為的Q2Q),與集團(tuán)ICBU、淘寶主搜通過(guò)多任務(wù)方式引入不同,這里直接增加Query和臨近Query的self-attention模塊,通過(guò)更為直接的融入信息,避免了多任務(wù)調(diào)餐的工作量及其不確定性。

    對(duì)于無(wú)臨近Query的Key Query,進(jìn)行置空操作,此外對(duì)于有臨近Query的Sample也會(huì)以一定幾率置空,以適應(yīng)新Query與超長(zhǎng)尾Query缺少Q(mào)2Q的問(wèn)題。

    模型架構(gòu)如下:

    實(shí)現(xiàn)細(xì)節(jié)

    • 數(shù)據(jù)構(gòu)造

    搜索語(yǔ)義召回向量的核心目標(biāo)為相關(guān)性,因此其樣本構(gòu)造也是圍繞此設(shè)計(jì),這里方案參考閑魚(yú)搜索相關(guān)性——體驗(yàn)與效率平衡的背后:

    • 正樣本:充足曝光下高點(diǎn)擊ctr樣本(如:ctr大于同query下商品點(diǎn)擊率平均值)
    • 負(fù)樣本:
    • Baseline隨機(jī)構(gòu)造負(fù)樣本:為增加隨機(jī)性,該部分實(shí)現(xiàn)可在訓(xùn)練時(shí)使用同Batch中其他樣本做負(fù)樣本,同時(shí)也可以引入經(jīng)典的Batch Level Hard Sample機(jī)制。
    • 同父類目的鄰居子類目負(fù)采樣。
    • 高曝光低點(diǎn)擊類目樣本:同一個(gè)Query搜索下,根據(jù)全局點(diǎn)擊商品的類目分布,取相對(duì)超低頻類目樣本作為負(fù)樣本。
    • 充足曝光情況下,低于相應(yīng)Query平均曝光點(diǎn)擊率一定百分比的樣本做負(fù)樣本。
    • 基于Query核心Term替換構(gòu)造負(fù)樣本:如,對(duì)于“品牌A+品類”結(jié)構(gòu)的Query,使用“品牌B+品類”結(jié)構(gòu)的Query做其負(fù)樣本。

    Graph Query Attention

    Query Graph即上文提到的行為Q2Q,這里參考Swing I2I算法,構(gòu)造Swing Q2Q結(jié)果。詳細(xì)地。取Top 3 Query拼接后作為Key Query的補(bǔ)充信息,而后Key Query與Graph Querys通過(guò)[SEP]拼接作為模型Query塔的輸入。為了使模型能夠區(qū)分Key Query和Graph Querys的差異,不同的Query類型使用不同的Segment_id作為標(biāo)識(shí)。對(duì)于Item-Title塔,其Segment_id與Key Query一致。

    直接拼接的方式融合Graph Query信息可以從模型底層就與key Query進(jìn)行相互的Attention交互,以Query-Title的匹配為目標(biāo)優(yōu)化可以更直接的引入臨近Query的有用信息,缺點(diǎn)則是一定程度上損失了模型預(yù)測(cè)階段對(duì)于無(wú)Graph Query的樣本精度。這點(diǎn)則是通過(guò)隨機(jī)丟棄Graph Query的方式緩解,實(shí)驗(yàn)證明該方法行之有效。

    • Batch-Level Triple loss vs InfoNCE loss

    早些時(shí)候,語(yǔ)義向量召回的優(yōu)化目標(biāo)loss為經(jīng)典的Triple loss:

    其中 d(a,p)表示向量a和p的距離,a和p表示query和doc的正樣本對(duì),a和n表示負(fù)樣本對(duì)。Triple loss訓(xùn)練的另一個(gè)標(biāo)配是Online hard negative mining,即在mini-batch內(nèi),每個(gè)正樣本對(duì)之間互為負(fù)樣本,選擇其中最難的樣本作為負(fù)樣本(相似度打分最高的樣本對(duì))。

    除了經(jīng)典的Triple loss外,我們也借鑒了對(duì)比學(xué)習(xí)框架(如MOCO、SimCLR等)下常用的InfoNCE Loss,:,這里增加溫度參數(shù),進(jìn)一步提升模型的泛化能力。

    其中q為query向量,k+為商品正樣本對(duì),k-為負(fù)樣本對(duì),τ為temperature超參數(shù)。InfoNCE在自監(jiān)督對(duì)比學(xué)習(xí)中十分有效,同樣在有監(jiān)督的對(duì)比學(xué)習(xí)框架下,也被驗(yàn)證效果。上式從代碼實(shí)現(xiàn)來(lái)看更加直觀,也比較巧妙:

      loss_fun = torch.nn.CrossEntropyLoss()# query_vecs : [batch, feat_dim]# item_vecs : [batch, feat_dim]# sim eg: cosine similarity,return dim: [batch, batch]scores = sim(query_vecs, item_vecs) / temp labels = torch.arange(scores.size(0)).long() # scores矩陣對(duì)角線為正樣本loss = loss_func(scores, labels)
      • 商品側(cè)引入其常搜query信息

      該部分策略出發(fā)點(diǎn),閑魚(yú)搜索場(chǎng)景中很多標(biāo)題也存在信息量不足的情況,如“便宜賣”,容易使模型學(xué)偏,這里使用商品歷史有點(diǎn)擊的Top3 Query作為商品的補(bǔ)充信息,與Query Graph一樣的方式融合進(jìn)網(wǎng)絡(luò)(使用不同的Segment_id),但實(shí)驗(yàn)發(fā)現(xiàn)效果不盡如人意,原因分析可能是閑魚(yú)商品在預(yù)測(cè)過(guò)程中,有不小占比的商品集合為新品,該部分商品往往補(bǔ)充信息不足。商品側(cè)引入其高點(diǎn)擊Query,根據(jù)模型《Shortcut Learning in Deep Neural Networks》的論述,這里模型容易走捷徑,過(guò)分關(guān)注補(bǔ)充的Query信息,對(duì)于缺失補(bǔ)充特征的商品預(yù)測(cè)效果有偏。因此在離線HitRate指標(biāo)表現(xiàn)不好,在線也存在類似分布不一致的問(wèn)題。而換個(gè)思路補(bǔ)充相似商品信息,也會(huì)存在類似問(wèn)題,因此該路徑未繼續(xù)深挖。

      • 上述關(guān)鍵離線實(shí)驗(yàn)對(duì)比
      策略AUC(相關(guān)性)HitRate@1、5、10online baseline model+dim=128

      0.780

      51.0、73.3、80.7query+難樣本構(gòu)造+dim=64

      0.805

      52.6、 76.8、 84.4query+graph query+dim=640.79050.5、 76.3、 84.4query+graph query+難樣本構(gòu)造+dim=640.80455.2、 79.6、 86.6query+graph query+難樣本構(gòu)造+infonce loss+batch size=640.82261.2、 83.9、 89.6aph query+難樣本構(gòu)造+infonce loss+batchsize=1280.82462.6、 84.7、90.1

      線上工程方案

      • 向量引擎

      得益于強(qiáng)大的Ha3引擎,使得向量引擎的搭建變得容易了許多。在構(gòu)建向量索引和使用向量引擎對(duì)外提供服務(wù)的過(guò)程中,需要注意以下的問(wèn)題:

      • 商品狀態(tài)的維護(hù),包括商品的下線以及新商品的發(fā)布。閑魚(yú)場(chǎng)景中的商品屬于孤品,通常商品被賣出或者下架后,將不能再被展示出來(lái),這就要求商品在下架的同時(shí)能夠及時(shí)從索引中刪除;同樣,在閑魚(yú)平臺(tái)上,新商品的成交要比舊商品高,因此,新入庫(kù)商品需要能夠及時(shí)進(jìn)入向量索引。
      • 召回結(jié)果的過(guò)濾、統(tǒng)計(jì)、排序等操作。為了能提高向量召回結(jié)果的效率,需要將這些操作封裝到引擎中,使得召回的結(jié)果符合相關(guān)性等要求。

      為了能夠同時(shí)滿足如上的需求,我們?cè)O(shè)計(jì)了如下的向量召回索引流程:

      • 索引構(gòu)建階段,分別搭建數(shù)據(jù)的批量和增量流程,并通過(guò)SARO(集團(tuán)PB級(jí)數(shù)據(jù)處理能力以及秒級(jí)實(shí)時(shí)性能的大數(shù)據(jù)ETL平臺(tái))統(tǒng)一管理
      • 每天例行通過(guò)ODPS構(gòu)建T+1全量的索引,使得每天的在線數(shù)據(jù)能夠及時(shí)同步;
      • 每天的增量數(shù)據(jù),如商品狀態(tài)的改變(如商品下線,價(jià)格更改等),新增商品,都會(huì)通過(guò)消息流的形式傳遞給SARO,通過(guò)SARO對(duì)數(shù)據(jù)統(tǒng)一管理。

      引擎查詢階段,得益于Ha3引擎的強(qiáng)大功能,通過(guò)scorer插件、function插件等對(duì)召回結(jié)果過(guò)濾、統(tǒng)計(jì)和排序

      • 多路召回

      在閑魚(yú)搜索業(yè)務(wù)中,存在多個(gè)索引引擎,主要包括倒排引擎,即主引擎和優(yōu)品引擎,在增加了向量引擎以及I2I引擎后,如何以最小的代價(jià)對(duì)鏈路改造多鏈路召回使其滿足整體RT的要求,我們?cè)O(shè)計(jì)了如下的多路召回流程:

      在實(shí)現(xiàn)的過(guò)程中,采用的是如上的并發(fā)多路召回的方式,目前索引引擎的種類分為兩種,分別為Ha3引擎和KV引擎引擎。當(dāng)前對(duì)于每一路引擎都是獨(dú)立的召回,通過(guò)設(shè)置不同的召回量控制每一路引擎的召回結(jié)果。

      問(wèn)題討論與優(yōu)化方向

      在上述基礎(chǔ)的語(yǔ)義向量召回基礎(chǔ)上,本季度我們也做了一些其他的嘗試,下面主要簡(jiǎn)單描述嘗試的方案,以及階段性的結(jié)論分析:

      • 增加個(gè)性化向量召回

      向量召回的理想目標(biāo)是檢索出“相關(guān)且高成交效率”的商品,而基于語(yǔ)義的向量召回更多的是考慮“相關(guān)”目標(biāo),“高成交效率”的目標(biāo)則是在粗排/精排階段實(shí)現(xiàn)。如果能在召回階段就考慮成交效率,一步到位,應(yīng)該是更加理想的狀態(tài)。

      因此,我們也嘗試了主流的個(gè)性化向量的建模方案:

      • 模型側(cè):仍為DSSM架構(gòu),升級(jí)query tower變?yōu)閡ser&query tower,item tower不變;
      • 數(shù)據(jù)側(cè):使用點(diǎn)擊/成交user&query-item對(duì)為正樣本,曝光為點(diǎn)擊/點(diǎn)擊未成交的樣本為負(fù)樣本,同時(shí)增加隨機(jī)采樣負(fù)樣本;
      • 特征側(cè):增加個(gè)性化特征,如用戶畫(huà)像和行為特征、商品和賣家維度的統(tǒng)計(jì)特征等。

      如上的改造期望使向量模型學(xué)習(xí)到個(gè)性化特征,但結(jié)果是模型失去了“相關(guān)性”的度量能力(原因也容易想到,在正負(fù)樣本的構(gòu)造過(guò)程中,“曝光未點(diǎn)擊”的負(fù)樣本極大的可能是“相關(guān)”樣本),其實(shí)上述方案被叫做“雙塔粗排模型”更加貼切。

      基于這個(gè)結(jié)論有兩條優(yōu)化路徑:

      • 在個(gè)性化向量召回過(guò)程中或過(guò)程后增加相關(guān)性策略(如類目、核心詞匹配),方案看上去可行,但回過(guò)頭來(lái)想,其實(shí)和使用“類目/核心詞召回,個(gè)性化向量粗排”差別不大,已經(jīng)失去了向量召回的初衷,因此廢棄。
      • 融合個(gè)性化和相關(guān)性向量,在召回階段兼顧二者目標(biāo),比較有代表性的工作如百度的《Mobius: Towards the next generation of query-ad matching in Baidu's sponsored search.》等,該部分方案是相對(duì)合理的解決方向,同樣也是后續(xù)的探索方向。
      • 引入多模態(tài)

      上述語(yǔ)義向量召回方案,并未考慮多模態(tài)信息,集團(tuán)也有很多工作,這里也嘗試了類似方案,使用多模態(tài)bert強(qiáng)化item側(cè)的特征,事實(shí)上離線指標(biāo)也能得到一定程度提升,但相對(duì)地,其鏈路的也變得更重,對(duì)資源的消耗也急劇增加。綜合考慮下,當(dāng)前線上主要還是使用文本模態(tài)。該方向仍需繼續(xù)探索,以兼顧鏈路的時(shí)效性以及資源的ROI。

      • 關(guān)于相關(guān)性控制

      閑魚(yú)搜索滿意度和badcase率是一個(gè)比較嚴(yán)格的監(jiān)測(cè)指標(biāo),而擴(kuò)大召回勢(shì)必會(huì)增加badcase透出風(fēng)險(xiǎn),依賴語(yǔ)義的向量召回更是如此,由于沒(méi)有嚴(yán)格的Term命中限制,不可避免地對(duì)一些query存在語(yǔ)義漂移現(xiàn)象,對(duì)于少見(jiàn)的長(zhǎng)尾query更甚。

      事實(shí)即是如此,在實(shí)踐過(guò)程中,僅使用語(yǔ)義向量召回,雖然成交效率可以取得可觀的提升,但badcase率也相應(yīng)的急劇提升,這里我們的解決方案也相對(duì)常規(guī):

      • 考慮到語(yǔ)義向量匹配分可以度量query-item相關(guān)性,但一刀切的方式卡匹配分閾值會(huì)收窄成交效率的收益,因此我們使用動(dòng)態(tài)閾值方法對(duì)候選進(jìn)行召回截?cái)?,?dòng)態(tài)閾值通過(guò)離線query歷史行為統(tǒng)計(jì)得到;
      • 增加query-item類目匹配限制;
      • 增加核心term匹配限制,同時(shí)兼容同義詞。
      • 其他體感問(wèn)題:不合理價(jià)格、虛標(biāo)價(jià)格、站外引流等商品的過(guò)濾

      如此經(jīng)過(guò)一系列的調(diào)餐,達(dá)到了搜索滿意度和badcase率指標(biāo)的可接受程度的微跌,但卻損失2個(gè)點(diǎn)左右的人均買賣家效率指標(biāo)(相對(duì)不做滿意度優(yōu)化)。這個(gè)方向上,仍然有一部分優(yōu)化空間,如更柔型的相關(guān)性控制(當(dāng)前版本核心term匹配這里限制的比較嚴(yán)格),更準(zhǔn)確的語(yǔ)義向量表達(dá)等。相應(yīng)的后續(xù)會(huì)從向量表征和機(jī)制策略兩方面進(jìn)行優(yōu)化。

      基于行為的I2I召回

      當(dāng)前召回個(gè)性化能力不足,對(duì)于不同用戶的相同query,召回相同的候選,召回截?cái)嗪罂赡軗p失更具個(gè)性化的相關(guān)商品。

      建模目標(biāo)

      分析發(fā)現(xiàn),用戶通過(guò)搜索到詳情頁(yè)猜你喜歡,通過(guò)猜你喜歡場(chǎng)景成交的商品占比可觀,通過(guò)case分析發(fā)現(xiàn),該部分diff商品,靠常規(guī)的文本召回方法難以成功檢索到。一個(gè)參考統(tǒng)計(jì)數(shù)據(jù),搜索導(dǎo)流到猜你喜歡的點(diǎn)擊PV里 ,僅有約25%在當(dāng)前query的召回集合中,也就是說(shuō)有75%沒(méi)有被召回。如一個(gè)例子:搜索引擎中檢索“迪卡儂優(yōu)惠券”,返回結(jié)果量不足,而點(diǎn)擊相關(guān)商品進(jìn)入詳情頁(yè)猜你喜歡卻可以關(guān)聯(lián)處滿足需求的商品。

      因此考慮直接通過(guò)I2I方法召回檢索池中的商品也會(huì)有一定的搜索效率提升空間。

      方案設(shè)計(jì)

      而在搜索場(chǎng)景下I2I實(shí)際上需要轉(zhuǎn)化為Q2I2I,因此該部分實(shí)驗(yàn)可以分為兩個(gè)階段:

      • Q2I:通過(guò)用戶搜索query,得到trigger item,該部分有兩種方式:1)直接通過(guò)當(dāng)前query實(shí)時(shí)在線曝光的top item作為trigger商品;2)離線統(tǒng)計(jì)該query下歷史成交、點(diǎn)擊、加購(gòu)、詢單的item集合,在線請(qǐng)求query2trigger表。
      • I2I:trigger item到擴(kuò)召回item的映射,這部分同樣有多種選擇:1)使用閑魚(yú)推薦或搜索場(chǎng)景的i2i召回表;2)直接使用詳情頁(yè)猜你喜歡的曝光點(diǎn)擊日志表,構(gòu)造I2I映射表,trigger為詳情頁(yè)主商品id。

      通過(guò)以上兩個(gè)階段可以組合出Q2I2I的候選方案,最終通過(guò)AB test擇優(yōu)選擇。使用上述方案,最優(yōu)核心七日人均買賣家提升可以達(dá)到+4%的人均買賣家提升,人均成單相應(yīng)漲幅有+5%。但相應(yīng)的也伴隨著嚴(yán)重的相關(guān)性指標(biāo)下跌的情況。如比較典型的,對(duì)于優(yōu)惠券/會(huì)員充之類的query,個(gè)性化召回往往會(huì)出現(xiàn)比較明顯的發(fā)散性召回:

      對(duì)此,我們將相關(guān)性的優(yōu)化也分成了兩個(gè)階段,Query2trigger item的相關(guān)性,保證trigger item和query的相關(guān)性;I2I后,通過(guò)query與候選item的類目、核心詞以及語(yǔ)義匹配分過(guò)濾相關(guān)性。在維持相關(guān)性波動(dòng)不大的情況下,最終實(shí)現(xiàn)七日+1.8%人均買賣家,人均成單+2.65%。可以看到嚴(yán)格的相關(guān)性限制,也縮小了成交效率的空間,也是后續(xù)的優(yōu)化方向,如使用更加soft的相關(guān)性限制。

      各AB收益對(duì)比

      經(jīng)過(guò)本季度搜索召回優(yōu)化,核心指標(biāo)上有了明顯的提升,推全時(shí)人均買賣家:近3日人均買賣家相對(duì)提升+4.66%;近7日人均買賣家相對(duì)提升+3.31%,人均成單:近3日人均成單+5.3%;近7日人均成單+4.02%;

      其中,階段性的參考切割實(shí)驗(yàn)對(duì)比:

      • 向量召回:七日人均買賣家+2.25%,人均成單+2.69%;
      • 行為I2I召回:七日人均買賣家+1.8%,人均成單+2.65%;
      PS:參考主引擎等數(shù)量擴(kuò)召回,七日人均買賣家+2.3%(未扣除相關(guān)性折損,即成交效率收益,損失相關(guān)性指標(biāo)較嚴(yán)重。)相比之下,排除精排候選增多引入的不公平對(duì)比,擴(kuò)召回優(yōu)化的收益仍然可觀。

      總結(jié)與展望

      閑魚(yú)搜索場(chǎng)景相對(duì)常規(guī)的電商場(chǎng)景有不小的差異,如商品上下架頻繁、整體庫(kù)存不足,各類型商品庫(kù)存分布差異大、用戶query發(fā)散、商品類型發(fā)散等,賣家側(cè)也是盤(pán)踞著各種類型的用戶,自由閑置賣家、小專業(yè)賣家、黃牛賣家、“投機(jī)倒把”的中間商等,因此在算法策略優(yōu)化中需要考慮的細(xì)節(jié)較多,召回優(yōu)化過(guò)程中也是如此。

      而對(duì)于后續(xù)優(yōu)化方向上,在上面的討論中其實(shí)也比較明確,總結(jié)一點(diǎn)即是召回效率與搜索體感指標(biāo)的trade off,如何在保證相關(guān)的前提下盡可能召回高成交效率的商品,將是一個(gè)長(zhǎng)期探索的方向。

      參考資源

      1、閑魚(yú)搜索相關(guān)性——體驗(yàn)與效率平衡的背后

      2、Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, L., Polosukhin, I.: Attention is all you need. In: NeurIPS (2017)

      3、Mobius: Towards the next generation of query-ad matching in Baidu's sponsored search

      4、Shortcut Learning in Deep Neural Networks

      這個(gè)問(wèn)題還有疑問(wèn)的話,可以加幕.思.城火星老師免費(fèi)咨詢,微.信號(hào)是為: msc496。

      難題沒(méi)解決?加我微信給你講!【僅限淘寶賣家交流運(yùn)營(yíng)知識(shí),非賣家不要加我哈】
      >

      推薦閱讀:

      淘寶平臺(tái)生鮮類商品爭(zhēng)議處理規(guī)范

      阿里巴巴淘管家怎么進(jìn)入,淘寶店鋪的淘管家在哪里可以查看?

      淘寶賣家發(fā)布商品沒(méi)有品牌怎么辦?淘寶商品發(fā)布有哪些規(guī)范?

      更多資訊請(qǐng)關(guān)注幕 思 城。

      發(fā)表評(píng)論

      別默默看了 登錄\ 注冊(cè) 一起參與討論!

        微信掃碼回復(fù)「666