近日,第29屆國(guó)際計(jì)算機(jī)學(xué)會(huì)信息與知識(shí)管理大會(huì)(CIKM 2020)在線上召開(kāi),CIKM是CCF推薦的B類國(guó)際學(xué)術(shù)會(huì)議,是信息檢索和數(shù)據(jù)挖掘領(lǐng)域頂級(jí)學(xué)術(shù)會(huì)議之一。
本屆CIKM會(huì)議共收到920篇論文投稿,其中錄用論文193篇,錄取率約為21%。 而在眾多論文當(dāng)中,一篇BOSS直聘和中國(guó)人民大學(xué)聯(lián)合發(fā)表的基于多視圖協(xié)作學(xué)習(xí)的人崗匹配研究吸引了我們的注意力。
論文題目:《Learning to Match Jobs with Resumes from Sparse Interaction Data using Multi-View Co-Teaching Network》。 論文鏈接:https://arxiv.org/abs/2009.13299 本論文針對(duì)求職者和招聘方的交互行為數(shù)據(jù)稀疏且?guī)в性肼曔@一場(chǎng)景,基于多視圖協(xié)作學(xué)習(xí),提出了一個(gè)新型匹配模型。 新型模型相比以往模型,增加了基于關(guān)系的匹配模塊,且將兩個(gè)匹配模塊融合進(jìn)行協(xié)作訓(xùn)練,優(yōu)化了該場(chǎng)景下的人崗匹配效率。 CIKM大會(huì)評(píng)審反饋,該論文提出的多視圖協(xié)作學(xué)習(xí)網(wǎng)絡(luò)能夠解決人崗匹配系統(tǒng)的負(fù)樣本噪聲問(wèn)題。同時(shí),融合文本匹配模塊和關(guān)系匹配模塊進(jìn)行的聯(lián)合表示學(xué)習(xí)有助于解決雙邊交互行為數(shù)據(jù)稀疏問(wèn)題,突破了以往匹配模型需要大量有效樣本數(shù)據(jù)的限定條件。而該思路對(duì)于互聯(lián)網(wǎng)求職招聘場(chǎng)景以外領(lǐng)域的推薦系統(tǒng)研究也有一定指導(dǎo)意義。
1
背景介紹
近年來(lái),隨著以BOSS直聘為代表的移動(dòng)互聯(lián)網(wǎng)求職招聘平臺(tái)的興起,人崗匹配任務(wù)越來(lái)越受到學(xué)術(shù)界的關(guān)注。 針對(duì)該問(wèn)題,常見(jiàn)的方法是將其轉(zhuǎn)化為一個(gè)有監(jiān)督的文本匹配任務(wù)來(lái)解決,當(dāng)標(biāo)記樣本足夠充分時(shí),此類方法往往能取得較好的效果。 然而,在真實(shí)的互聯(lián)網(wǎng)求職招聘平臺(tái)上,求職者和招聘方的交互行為數(shù)據(jù)往往是稀疏且?guī)в性肼暤?,這嚴(yán)重影響著匹配算法的性能。 因此,本文提出了一種基于稀疏交互數(shù)據(jù)的多視圖協(xié)作學(xué)習(xí)模型,并將其應(yīng)用于人崗匹配任務(wù),取得了較好的效果。 該方法的思路如下: 我們?cè)O(shè)計(jì)了一種全新的匹配模型,包含基于文本的匹配模塊和基于關(guān)系的匹配模塊兩部分,這兩部分能捕獲不同視角下的語(yǔ)義信息,并相互補(bǔ)充。 此外,為了解決交互行為數(shù)據(jù)稀疏的問(wèn)題,我們?cè)O(shè)計(jì)了兩種特定訓(xùn)練策略來(lái)更好地融合這兩個(gè)匹配模塊: 一方面,兩個(gè)模塊共享學(xué)習(xí)參數(shù)和表示,可以增強(qiáng)每個(gè)模塊初始的表示; 另一方面,我們采用了一種協(xié)作學(xué)習(xí)的機(jī)制來(lái)減少噪聲數(shù)據(jù)對(duì)訓(xùn)練的影響。核心思想是讓這兩個(gè)模塊通過(guò)選擇更置信的訓(xùn)練實(shí)例來(lái)互相指導(dǎo)訓(xùn)練。 這兩種策略可以更好地用于表示的增強(qiáng)和數(shù)據(jù)的增強(qiáng)。 與單純基于文本的匹配模型相比,我們所提出的方法能夠從有限甚至稀疏的交互數(shù)據(jù)中更好地學(xué)習(xí)數(shù)據(jù)的表示,在帶有噪聲的訓(xùn)練數(shù)據(jù)上該方法也更具魯棒性。
2
問(wèn)題定義
對(duì)于人崗匹配任務(wù),給定職位文本數(shù)據(jù)集合
和簡(jiǎn)歷文本數(shù)據(jù)集合
,以及匹配結(jié)果集合
。 其中,每一個(gè)職位j或簡(jiǎn)歷r均由多句描述職位或簡(jiǎn)歷的文本構(gòu)成,代表簡(jiǎn)歷和職位是否匹配。根據(jù)上述定義,我們的任務(wù)是學(xué)習(xí)一個(gè)預(yù)測(cè)函數(shù)
來(lái)預(yù)測(cè)未知的職位簡(jiǎn)歷對(duì)的匹配結(jié)果。
3
方法描述
多視圖協(xié)作學(xué)習(xí)的人崗匹配模型圖 為了解決在線求職招聘場(chǎng)景下由于交互數(shù)據(jù)稀疏和采樣負(fù)例而帶來(lái)的噪聲問(wèn)題,我們提出了一種基于多視圖協(xié)作學(xué)習(xí)的人崗匹配模型。
基于文本的匹配模塊近年來(lái),基于預(yù)訓(xùn)練語(yǔ)言模型的方法在各種自然語(yǔ)言處理任務(wù)上均取得了不錯(cuò)的效果。 鑒于此,這里采用BERT編碼簡(jiǎn)歷和職位的每一個(gè)句子表示,然后使用Transformer編碼表示整篇文檔表示。
j和r分別代表職位和簡(jiǎn)歷文檔,和分別代表第層的輸入簡(jiǎn)歷和職位的向量。
最后將職位表示和簡(jiǎn)歷表示拼接后再接一個(gè)Sigmoid層輸出得到的作為候選簡(jiǎn)歷和職位的匹配分。
基于關(guān)系的匹配模塊前文所述的匹配模塊主要關(guān)注文本語(yǔ)義上的匹配,但由于顯式交互數(shù)據(jù)是相對(duì)稀疏的,因此挖掘潛在的隱式關(guān)聯(lián)將有助于抽取出更多額外信息作為補(bǔ)充。 為此我們?cè)O(shè)計(jì)了基于關(guān)系的匹配模塊,該模塊包含構(gòu)造職位-簡(jiǎn)歷關(guān)系圖和學(xué)習(xí)職位簡(jiǎn)歷的表示兩部分。構(gòu)造職位-簡(jiǎn)歷關(guān)系圖首先定義職位-簡(jiǎn)歷關(guān)系圖
。其中,
代表職位和簡(jiǎn)歷兩類節(jié)點(diǎn),
代表關(guān)系集合。 由于有職位和簡(jiǎn)歷兩類節(jié)點(diǎn),所以共包含三種連接類型,即職位-職位,職位-簡(jiǎn)歷和簡(jiǎn)歷-簡(jiǎn)歷。同時(shí),采用如下兩種數(shù)據(jù)信號(hào)來(lái)刻畫節(jié)點(diǎn)間的連接關(guān)系:第一類是相同領(lǐng)域標(biāo)簽的職位或者簡(jiǎn)歷之間構(gòu)建連接關(guān)系;第二類是根據(jù)職位描述或簡(jiǎn)歷文本中抽取出的關(guān)鍵詞,職位或者簡(jiǎn)歷之間出現(xiàn)了同樣的關(guān)鍵詞構(gòu)建連接關(guān)系。職位簡(jiǎn)歷的表示學(xué)習(xí)基于職位-簡(jiǎn)歷關(guān)系圖,可以進(jìn)一步捕捉圖上潛在的語(yǔ)義信息來(lái)學(xué)習(xí)節(jié)點(diǎn)上的特征表示(即職位和簡(jiǎn)歷)。 圖神經(jīng)網(wǎng)絡(luò)近年來(lái)已經(jīng)成為學(xué)習(xí)圖節(jié)點(diǎn)特征表示的最流行的方法,由于在職位-簡(jiǎn)歷關(guān)系圖中存在大量不同類別的關(guān)系連接,為了更好刻畫在這類帶有豐富關(guān)系的圖結(jié)構(gòu),這里采用關(guān)系圖卷積網(wǎng)絡(luò)(Relational Graph Convolutional Network)來(lái)刻畫不同關(guān)系和節(jié)點(diǎn)的表示。 第l層的節(jié)點(diǎn)學(xué)習(xí)到的表示的公式如下:
代表了第l層節(jié)點(diǎn)的表示,?代表節(jié)點(diǎn)的鄰接節(jié)點(diǎn)集合。由于每一種關(guān)系t對(duì)應(yīng)一個(gè)特定的參數(shù)矩陣,所以能夠基于關(guān)系的語(yǔ)義信息學(xué)習(xí)到節(jié)點(diǎn)的表示。 通過(guò)在圖上學(xué)習(xí)的節(jié)點(diǎn)表示,最終得到簡(jiǎn)歷和職位的表示,與之前的方法類似,通過(guò)拼接簡(jiǎn)歷表示和職位表示計(jì)算最終匹配分。
多視圖的協(xié)作學(xué)習(xí)網(wǎng)絡(luò)接下來(lái)將介紹所設(shè)計(jì)的多視圖協(xié)作學(xué)習(xí)網(wǎng)絡(luò),以及如何將基于文本和基于關(guān)系的匹配模塊集成到統(tǒng)一的訓(xùn)練方法中。 首先,網(wǎng)絡(luò)會(huì)共享學(xué)習(xí)到的信息和參數(shù),以增強(qiáng)每個(gè)模塊的原始表示;其次,針對(duì)如何減少訓(xùn)練數(shù)據(jù)對(duì)噪聲的影響,我們借鑒了機(jī)器學(xué)習(xí)中協(xié)同學(xué)習(xí)的思想,通過(guò)選擇更可靠的訓(xùn)練實(shí)例來(lái)讓這兩個(gè)組件相互幫助。接下來(lái),介紹這兩種策略的細(xì)節(jié)。表示增強(qiáng)由于在匹配過(guò)程中包含文本表示和關(guān)系表示兩類表示方法,為了在初始表示學(xué)習(xí)的過(guò)程中互相增強(qiáng),在初始學(xué)習(xí)文本模塊的表示時(shí)會(huì)拼接關(guān)系圖上節(jié)點(diǎn)的表示。
類似地,為了增強(qiáng)圖關(guān)系上節(jié)點(diǎn)的表示,會(huì)采用文本模塊學(xué)習(xí)到的表示作為關(guān)系圖訓(xùn)練時(shí)的初始表示。
利用協(xié)作學(xué)習(xí)的數(shù)據(jù)增強(qiáng)這里的基本假設(shè)是,真實(shí)樣本通常在不同的模型視角下會(huì)得到相似的預(yù)測(cè)結(jié)果,而噪聲數(shù)據(jù)則會(huì)在不同視角下表現(xiàn)得不穩(wěn)定。 在協(xié)作學(xué)習(xí)網(wǎng)絡(luò)中,文本匹配模塊和關(guān)系匹配模塊可以視為兩個(gè)對(duì)等的learner。用于訓(xùn)練一個(gè)learner的樣本首先由另一個(gè)learner進(jìn)行檢查,并且僅將標(biāo)記為高置信度的實(shí)例保留在訓(xùn)練過(guò)程中。 由于這兩個(gè)learner從不同視角對(duì)數(shù)據(jù)建模,學(xué)習(xí)的策略有所不同,因此他們可以互相幫助選擇高置信度的訓(xùn)練樣本,從而提升模型效果。 具體訓(xùn)練方法如下圖所示:
提出的co-teaching的算法流程圖 這里具體提出了兩種實(shí)現(xiàn)策略。(1)實(shí)例的重加權(quán)給定一個(gè)模型,其對(duì)等模型目的是在不同視角下,增加高置信度樣本的權(quán)重并降低不可靠樣本的權(quán)重。例如,對(duì)于模型B,假設(shè)在訓(xùn)練過(guò)程中的一個(gè)batch中有K個(gè)實(shí)例。
讓其對(duì)等模型A為這個(gè)K個(gè)實(shí)例分配權(quán)重。其核心想法是根據(jù)樣本真實(shí)標(biāo)簽信息與A的預(yù)測(cè)之間的一致程度對(duì)實(shí)例賦予權(quán)重:
這里的權(quán)重越高代表了該實(shí)例越可信。同時(shí)將這些權(quán)重結(jié)果傳遞給模型B并讓其進(jìn)行模型參數(shù)的更新。(2)實(shí)例的篩選過(guò)濾除了對(duì)不同樣本重新加權(quán)外,還可以直接篩除相對(duì)較差的實(shí)例。直觀地,如果實(shí)例對(duì)應(yīng)的損失較小,則它離決策邊界很遠(yuǎn),更有可能是可靠的樣本。可以通過(guò)以下公式建模:
實(shí)例重加權(quán)和篩選過(guò)濾方法都旨在為模型學(xué)習(xí)選擇更可靠的樣本。他們用不同的方法達(dá)到這個(gè)目的。 實(shí)例重新加權(quán)是一種相對(duì)“軟”的方法,其所有實(shí)例均保留,只不過(guò)不同實(shí)例具有不同的重要程度。而實(shí)例篩選過(guò)濾是一種相對(duì)“硬”的方法,會(huì)直接丟棄一些樣本。還有一種思路是通過(guò)在對(duì)樣本重新加權(quán)之前對(duì)樣本進(jìn)行過(guò)濾來(lái)將這兩種方法結(jié)合起來(lái)。
4
實(shí)驗(yàn)結(jié)果
數(shù)據(jù)集介紹本文基于在線招聘平臺(tái)BOSS直聘的數(shù)據(jù)集進(jìn)行相關(guān)實(shí)驗(yàn)。該數(shù)據(jù)集包括三個(gè)領(lǐng)域類別,便于測(cè)試我們的模型在不同領(lǐng)域下的穩(wěn)定性。 表1總結(jié)了處理后的數(shù)據(jù)統(tǒng)計(jì)信息,可以看到:(1)所有數(shù)據(jù)集都很稀疏,無(wú)論是達(dá)成匹配或拒絕;(2)不同領(lǐng)域下的數(shù)據(jù)稀疏程度有所不同。例如,技術(shù)類規(guī)模較大但較稀疏,而銷售相對(duì)稠密;(3)對(duì)于每個(gè)領(lǐng)域類別,發(fā)生顯示拒絕(即不匹配)的數(shù)量要比達(dá)成匹配的數(shù)量少得多。
表1:數(shù)據(jù)集的統(tǒng)計(jì)信息
實(shí)驗(yàn)結(jié)果對(duì)比方法1、DSSM [1]提出的深度結(jié)構(gòu)語(yǔ)義匹配模型。 2、BPJFNN [2]提出的基于循環(huán)神經(jīng)網(wǎng)絡(luò)的匹配模型。 3、PJFNN [3]提出的基于卷積神經(jīng)網(wǎng)絡(luò)的匹配模型。 4、APJFNN [2]提出的基于層級(jí)注意力機(jī)制的匹配模型。 5、DGMN [4]提出的基于全局句子粒度交互的匹配模型。 6、JRMPM [5]提出的引入歷史交互作為記憶模塊的匹配模型。 7、UBD [6]用來(lái)解決噪聲數(shù)據(jù)帶來(lái)的影響,采用分歧的思想對(duì)分類器雙方產(chǎn)生不同結(jié)果的數(shù)據(jù)進(jìn)行參數(shù)更新。 8、NFM [7]使用神經(jīng)因子分解機(jī)來(lái)學(xué)習(xí)高階交互,使用文本和ID特征作為輸入。
表2:主實(shí)驗(yàn)的結(jié)果 根據(jù)表2中的實(shí)驗(yàn)結(jié)果,結(jié)論如下:1、首先,NFM很難在我們的任務(wù)上取得良好的效果。原因是該任務(wù)比傳統(tǒng)推薦場(chǎng)景數(shù)據(jù)更加稀疏;同時(shí),DSSM在大多數(shù)情況下表現(xiàn)不佳,因?yàn)樗鼰o(wú)法捕獲文本信息中的時(shí)序信息;BPJFNN、PJFNN、APJFNN、JRMPM和DGMN之間的性能差異很小,并且針對(duì)不同指標(biāo)或不同領(lǐng)域會(huì)有微小差別;此外,UBD是唯一訓(xùn)練時(shí)解決噪聲問(wèn)題的baseline,與其他baseline方法相比,該方法的效果有顯著提升,這也側(cè)面證實(shí)了該任務(wù)下處理噪聲數(shù)據(jù)的必要性。2、我們提出的模型在不同數(shù)據(jù)集的所有指標(biāo)上均獲得了最佳性能。與其他方法相比,模型中的協(xié)作學(xué)習(xí)機(jī)制能夠識(shí)別更多信息量豐富且更可靠的樣本來(lái)學(xué)習(xí)參數(shù),也更容易削弱噪聲數(shù)據(jù)帶來(lái)的影響,因此優(yōu)于其他baseline方法。3、對(duì)比篩選過(guò)濾和重加權(quán)這兩種策略,我們發(fā)現(xiàn)后者在大多數(shù)情況下更優(yōu)異??赡芤?yàn)橹匦录訖?quán)策略采用了“軟”降噪的方法,該方法在處理噪聲數(shù)據(jù)時(shí)會(huì)更魯棒。 除了上述主實(shí)驗(yàn)結(jié)果分析外,我們也同時(shí)分析了不同模塊組件對(duì)最終效果的影響。 如表3所示,這里T代表文本匹配模塊、R代表關(guān)系匹配模塊、C代表協(xié)作學(xué)習(xí)網(wǎng)絡(luò)。 結(jié)果表明,所有這三個(gè)組件對(duì)提高人崗匹配的性能都有正向作用。尤其是文本匹配模塊和協(xié)作學(xué)習(xí)網(wǎng)絡(luò)給模型帶來(lái)的提升較大。 此外,一個(gè)有趣的觀察是,簡(jiǎn)單地融合多視圖的數(shù)據(jù)可能不會(huì)導(dǎo)致良好的性能(即TR
表3:消融實(shí)驗(yàn)結(jié)果
5
總結(jié)
本文提出了一種基于多視圖協(xié)同教學(xué)網(wǎng)絡(luò),該網(wǎng)絡(luò)能夠在交互行為數(shù)據(jù)稀疏且?guī)в性肼曔@一場(chǎng)景下進(jìn)行學(xué)習(xí),以進(jìn)行人崗匹配。我們考慮融合文本匹配模塊和關(guān)系匹配模塊進(jìn)行的聯(lián)合表示學(xué)習(xí),該方法能夠結(jié)合各自模塊的優(yōu)勢(shì)來(lái)更好的學(xué)習(xí)匹配表示。同時(shí)我們?cè)O(shè)計(jì)了兩種特定訓(xùn)練策略來(lái)更好地融合這兩個(gè)匹配模塊,即表示增強(qiáng)和數(shù)據(jù)增強(qiáng)。一方面,兩個(gè)模塊共享學(xué)習(xí)參數(shù)和表示,可以增強(qiáng)每個(gè)模塊初始的表示; 另一方面,我們采用了一種協(xié)作學(xué)習(xí)的機(jī)制來(lái)減少噪聲數(shù)據(jù)對(duì)訓(xùn)練的影響。大量實(shí)驗(yàn)表明,與以往的方法對(duì)比,該方法能夠從數(shù)據(jù)稀疏且?guī)в性肼暤慕换?shù)據(jù)中獲得更好的匹配效果。在本文中,我們聚焦于宏觀的交互行為,例如接受或拒絕面試邀請(qǐng)這樣的行為。然而一些微觀交互也會(huì)對(duì)匹配產(chǎn)生一定的影響,例如單擊或停留時(shí)間。未來(lái)我還將考慮將此類信息融入進(jìn)來(lái)以設(shè)計(jì)一個(gè)更加全面的匹配模型。此外,我們還將考慮將我們的方法應(yīng)用于更多的領(lǐng)域類別,研究不同類別之間的領(lǐng)域自適應(yīng)問(wèn)題。
參考文獻(xiàn)
[1]Po-Sen Huang, Xiaodong He, Jianfeng Gao, Li Deng, Alex Acero, and Larry Heck. 2013. Learning deep structured semantic models for web search using clickthrough data. In Proceedings of the 22nd ACM international conference on Conference on information and knowledge management, pages 2333–2338. ACM.
[2]Chuan Qin, Hengshu Zhu, Tong Xu, Chen Zhu, Liang Jiang, Enhong Chen, and Hui Xiong. 2018. Enhancing person-job fit for talent recruitment: An ability-aware neural network approach. In In Proceedings of the 41st International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR-2018) , Ann Arbor, Michigan, USA. [3]Chen Zhu, Hengshu Zhu, Hui Xiong, Chao Ma, Fang Xie, Pengliang Ding, and Pan Li. 2018. Person-job fit: Adapting the right talent for the right job with joint representation learning. ACM Transactions on Management Information Systems ACM TMIS. [4]Shuqing Bian, Wayne Xin Zhao, Yang Song, Tao Zhang, and Ji-Rong Wen. 2019. Domain Adaptation for Person-Job Fit with Transferable Deep Global Match Network. In EMNLP-IJCNLP 2019. 4809–4819. [5]Rui Yan, Ran Le, Yang Song, Tao Zhang, Xiangliang Zhang, and Dongyan Zhao. 2019. Interview Choice Reveals Your Preference on the Market: To Improve Job-Resume Matching through Profiling Memories. In KDD 2019. 914–922. [6]Eran Malach and Shai Shalev-Shwartz. 2017. Decoupling "when to update" from "how to update". In NeurIPS 2017. 960–970. [7]XiangnanHe and Tat-SengChua. 2017.Neural Factorization Machines for Sparse Predictive Analytics. In SIGIR 2017. 355–364.
責(zé)任編輯:xj
原文標(biāo)題:【CIKM 2020】基于多視圖協(xié)作學(xué)習(xí)的人崗匹配研究
文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
-
噪聲
+關(guān)注
關(guān)注
13文章
1122瀏覽量
47456 -
數(shù)據(jù)
+關(guān)注
關(guān)注
8文章
7102瀏覽量
89271 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5510瀏覽量
121334 -
協(xié)作學(xué)習(xí)系統(tǒng)
+關(guān)注
關(guān)注
0文章
2瀏覽量
1613
原文標(biāo)題:【CIKM 2020】基于多視圖協(xié)作學(xué)習(xí)的人崗匹配研究
文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論