最近幾年,GPT-3、PaLM和GPT-4等LLM刷爆了各種NLP任務(wù),特別是在zero-shot和few-shot方面表現(xiàn)出它們強(qiáng)大的性能。因此,情感分析(SA)領(lǐng)域也必然少不了LLM的影子,但是哪種LLM適用于SA任務(wù)依然是不清晰的。
論文:Sentiment Analysis in the Era of Large Language Models: A Reality Check
地址:https://arxiv.org/pdf/2305.15005.pdf
代碼:https://github.com/DAMO-NLP-SG/LLM-Sentiment
這篇工作調(diào)查了LLM時代情感分析的研究現(xiàn)狀,旨在幫助SA研究者們解決以下困惑:
LLM在各種情感分析任務(wù)中的表現(xiàn)如何?
與在特定數(shù)據(jù)集上訓(xùn)練的小模型(SLM)相比,LLM在zero-shot和few-shot方面的表現(xiàn)如何?
在LLM時代,當(dāng)前的SA評估實踐是否仍然適用?
實驗
實驗設(shè)置
1、調(diào)查任務(wù)和數(shù)據(jù)集
該工作對多種的SA任務(wù)進(jìn)行了廣泛調(diào)查,包括以下三種類型任務(wù):情感分類(SC)、基于方面的情感分析(ABSA)和主觀文本的多面分析(MAST)。
2、基線模型
Large Language Models (LLMs) LLM將直接用于SA任務(wù)的推理而沒有特定的訓(xùn)練,本文從Flan模型家族中選取了兩個模型,分別是Flan-T5(XXL版本,13B)和Flan-UL2(20B)。同時,采用了GPT-3.5家族兩個模型,包括ChatGPT(gpt-3.5-turbo)和text-davinci-003(text-003,175B)。為了正確性預(yù)測,這些模型的溫度設(shè)置為0。
Small Language Models (SLMs) 本文采用T5(large版本,770M)作為SLM。模型訓(xùn)練包括全訓(xùn)練集的方式和采樣部分?jǐn)?shù)據(jù)的few-shot方式,前者訓(xùn)練epoch為3而后者為100。采用Adam優(yōu)化器并設(shè)置學(xué)習(xí)率為1e-4,所有任務(wù)的batch大小設(shè)置為4。為了穩(wěn)定對比,為SLM構(gòu)造3輪不同隨機(jī)seed的訓(xùn)練,并采用其平均值作為結(jié)果。
3、Prompting策略
SC,ABSA,和MAST的提示實例。虛線框為few-shot設(shè)置,在zero-shot設(shè)置時刪除。
為了評估LLM的通用能力,本文為不同模型采用相對一致的的propmts,這些propmts滿足簡單清晰直接的特性。對于zero-shot學(xué)習(xí),propmt只包含任務(wù)名、任務(wù)定義和輸出格式三個必要組件,而對于few-shot學(xué)習(xí),將為每個類增加k個實例。
實驗結(jié)果
1、Zero-shot結(jié)果
對于LLM,直接將其用于測試集上進(jìn)行結(jié)果推理。對于SLM,先將其在完整訓(xùn)練集上fine-tuned然后再用于測試,從上圖結(jié)果中可以觀測到:
LLM在簡單SA任務(wù)上表現(xiàn)出強(qiáng)大的zero-shot性能 從表中結(jié)果可以看到LLM的強(qiáng)大性能在SC和MAST任務(wù)上,而不需要任何的前置訓(xùn)練。同時也能觀察到任務(wù)稍微困難一點,比如Yelp-5(類目增多)和,LLM就比fine-tuned模型落后很多。
更大的模型不一定導(dǎo)致更好的性能 從表中結(jié)果可以看到LLM對于SC和MAST任務(wù)表現(xiàn)較好,而且不需要任何的前置訓(xùn)練。但是也能觀察到任務(wù)稍微困難一點,比如Yelp-5(類目增多),LLM就比fine-tuned模型落后很多。
LLM難以提取細(xì)粒度的結(jié)構(gòu)化情感和觀點信息 從表中中間部分可以看出,F(xiàn)lan-T5和Flan-UL2在ABSA任務(wù)根本就不適用,而text-003和ChatGPT雖然取得了更好的結(jié)果,但是對于fine-tuned的SLM來說,依然是非常弱的。
RLHF可能導(dǎo)致意外現(xiàn)象 從表中可以觀察到一個有趣現(xiàn)象,ChatGPT在檢測仇恨、諷刺和攻擊性語言方面表現(xiàn)不佳。即使與在許多其他任務(wù)上表現(xiàn)相似的text-003相比,ChatGPT在這三項任務(wù)上的表現(xiàn)仍然差得多。對此一個可能的解釋是在ChatGPT的RLHF過程與人的偏好“過度一致”。這一發(fā)現(xiàn)強(qiáng)調(diào)了在這些領(lǐng)域進(jìn)一步研究和改進(jìn)的必要性。
2、Few-shot結(jié)果
本文采用了手中K-shot的設(shè)置:1-shot, 5-shot, 和10-shot。這些采樣的實例分別作為LLM上下文學(xué)習(xí)實例以及SLM的訓(xùn)練數(shù)據(jù)??梢杂腥缦掳l(fā)現(xiàn):
在不同的few-shot設(shè)置下,LLM超越SLM 在三種few-shot設(shè)置中,LLM幾乎在所有情況下都始終優(yōu)于SLM。這一優(yōu)勢在ABSA任務(wù)中尤為明顯,因為ABSA任務(wù)需要輸出結(jié)構(gòu)化的情感信息,SLM明顯落后于LLM,這可能是由于在數(shù)據(jù)有限的情況下學(xué)習(xí)這種模式會變得更加困難。
SLM通過增加shot在多數(shù)任務(wù)性能得到持續(xù)提升 隨著shot數(shù)目的增加,SLM在各種SA任務(wù)中表現(xiàn)出實質(zhì)性的提升。這表明SLM能有效利用更多的示例實現(xiàn)更好的性能。任務(wù)復(fù)雜性也可以從圖中觀察到,T5模型用于情感分類任務(wù)性能逐漸趨于平穩(wěn),然而對于ABSA和MAST任務(wù),性能繼續(xù)增長,這表明需要更多的數(shù)據(jù)來捕捉其基本模式。
LLM shots的增加對不同任務(wù)產(chǎn)生不同結(jié)果 增加shot數(shù)目對LLM的影響因任務(wù)而異。對于像SC這種相對簡單的任務(wù),增加shot收益并不明顯。此外,如MR和Twitter等數(shù)據(jù)集以及立場和比較任務(wù),甚至隨著shot的增加,性能受到阻礙,這可能是由于處理過長的上下文誤導(dǎo)LLM的結(jié)果。然而,對于需要更深入、更精確的輸出格式的ABSA任務(wù),增加few數(shù)目大大提高了LLM的性能。這表明更多示例并不是所有任務(wù)的靈丹妙藥,需要依賴任務(wù)的復(fù)雜性。
SA能力評估再思考
呼吁更全面的評估 目前大多數(shù)評估往往只關(guān)注特定的SA任務(wù)或數(shù)據(jù)集,雖然這些評估可以為LLM的情感分析能力的某些方面提供有用見解,但它們本身并沒有捕捉到模型能力的全部廣度和深度。這種限制不僅降低了評估結(jié)果的總體可靠性,而且限制了模型對不同SA場景的適應(yīng)性。因此,本文試圖在這項工作中對廣泛的SA任務(wù)進(jìn)行全面評估,并呼吁在未來對更廣泛的SA工作進(jìn)行更全面的評估。
呼吁更自然的模型交互方式 常規(guī)情感分析任務(wù)通常為一個句子配對相應(yīng)的情感標(biāo)簽。這種格式有助于學(xué)習(xí)文本與其情感之間的映射關(guān)系,但可能不適合LLM,因為LLM通常是生成模型。在實踐中不同的寫作風(fēng)格產(chǎn)生LLM解決SA任務(wù)的不同方式,所以在評估過程中考慮不同的表達(dá)以反映更現(xiàn)實的用例是至關(guān)重要的。這確保評估結(jié)果反映真實世界的互動,進(jìn)而提供更可靠的見解。
prompt設(shè)計的敏感性 如圖所示,即使在一些簡單的SC任務(wù)上,prompt的變化也會對ChatGPT的性能產(chǎn)生實質(zhì)性影響。當(dāng)試圖公平、穩(wěn)定地測試LLM的SA能力時,與prompt相關(guān)的敏感性也帶來了挑戰(zhàn)。當(dāng)各種研究在一系列LLM中對不同的SA任務(wù)使用不同的prompt時,挑戰(zhàn)被進(jìn)一步放大。與prompt相關(guān)的固有偏見使采用相同prompt的不同模型的公平對比變得復(fù)雜,因為單個prompt可能并不適用于所有模型。
為了緩解上述評估LLM的SA能力時的局限性,本文提出了SENTIEVAL基準(zhǔn),用于在LLM時代進(jìn)行更好的SA評估,并利用各種LLM模型進(jìn)行了再評估,結(jié)果如圖所示。
總結(jié)
這項工作使用LLM對各種SA任務(wù)進(jìn)行了系統(tǒng)評估,有助于更好地了解它們在SA問題中的能力。結(jié)果表明,雖然LLM在zero-shot下的簡單任務(wù)中表現(xiàn)很好,但它們在處理更復(fù)雜的任務(wù)時會遇到困難。在few-shot下,LLM始終優(yōu)于SLM,這表明它們在標(biāo)注資源稀缺時的潛力。同時還強(qiáng)調(diào)了當(dāng)前評估實踐的局限性,然后引入了SENTIEVAL基準(zhǔn)作為一種更全面、更現(xiàn)實的評估工具。
總體而言,大型語言模型為情感分析開辟了新的途徑。雖然一些常規(guī)SA任務(wù)已經(jīng)達(dá)到了接近人類的表現(xiàn),但要全面理解人類的情感、觀點和其他主觀感受還有很長的路要走。LLM強(qiáng)大的文本理解能力為LLM時代情感分析探索之路提供了有效的工具和令人興奮的研究方向。
-
模型
+關(guān)注
關(guān)注
1文章
3244瀏覽量
48842 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1208瀏覽量
24703 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1561瀏覽量
7674 -
LLM
+關(guān)注
關(guān)注
0文章
288瀏覽量
338
原文標(biāo)題:ChatGPT時代情感分析還存在嗎?一份真實調(diào)查
文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論