清華大學(xué)實(shí)驗(yàn)組18篇論文被ACL 2022錄用
近日,ACL 2022錄用結(jié)果出爐,我組18篇論文被ACL 2022錄用,其中主會(huì)論文13篇,F(xiàn)indings論文5篇。以下為論文列表及介紹:
ACL?2022主會(huì)
Packed Levitated Marker for Entity and Relation Extraction

QuoteR: A Benchmark of Quote Recommendation for Writing
作者:豈凡超,楊延輝,易靖,程志立,劉知遠(yuǎn),孫茂松
類型:Long Paper
摘要:在寫作中人們經(jīng)常引用名言名句來(lái)提高文章文采和說(shuō)服力。為了幫助人們更快地找到合適的名言名句,研究者提出了名言名句推薦任務(wù)。該任務(wù)旨在自動(dòng)推薦適合當(dāng)前上下文的名言名句?,F(xiàn)在已經(jīng)有許多名言名句推薦方法,但是他們的評(píng)測(cè)基于不同的未公開(kāi)數(shù)據(jù)集。為了推進(jìn)這一領(lǐng)域的研究,我們構(gòu)建了一個(gè)名為QuoteR的大規(guī)模名言名句推薦數(shù)據(jù)集。該數(shù)據(jù)集完全公開(kāi),由英語(yǔ)、現(xiàn)代漢語(yǔ)、古詩(shī)文三部分構(gòu)成,每一部分都比此前的相應(yīng)未公開(kāi)數(shù)據(jù)集要大?;谠摂?shù)據(jù)集,我們對(duì)此前的所有名言名句推薦方法進(jìn)行了公平而詳盡的評(píng)測(cè)。此外,我們還提出了一個(gè)名言名句推薦模型,其性能顯著超過(guò)前人方法。
以下為根據(jù)上下文“從盤面上看,股票價(jià)格會(huì)呈現(xiàn)某種帶漂移的無(wú)規(guī)則行走,漲跌無(wú)常,難以捉摸。[Quote],這話放在投資領(lǐng)域也同樣受用。事物是在不斷變化的,歷史數(shù)據(jù)只能起一定程度的參考作用。投資者想憑借歷史數(shù)據(jù)準(zhǔn)確預(yù)測(cè)未來(lái)幾乎是不可能的。”推薦的名言示例:
MSP: Multi-Stage Prompting for Making Pre-trained Language Models Better Translators

Integrating Vectorized Lexical Constraints for Neural Machine Translation?

Pass off Fish Eyes for Pearls: Attacking Model Selection of Pre-trained Models
PPT: Pre-trained Prompt Tuning for Few-shot Learning

Prototypical Verbalizer for Prompt-based Few-shot Tuning

bert2BERT: Towards Reusable Pretrained Language Models

?Cross-Lingual Contrastive Learning for Fine-Grained Entity Typing for Low-Resource Languages

Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification

Fully Hyperbolic Neural Networks

Program Transfer for Complex Question Answering over Knowledge Bases
作者:曹書林,史佳欣,姚子俊,呂鑫,侯磊,李涓子,劉知遠(yuǎn),肖鏡輝,于濟(jì)凡,張含望
類型:Long Paper
摘要:在知識(shí)庫(kù)(KB)上回答復(fù)雜問(wèn)題的程序歸納法旨在將問(wèn)題分解為一個(gè)由多個(gè)函數(shù)組合而成的程序,程序在知識(shí)庫(kù)的執(zhí)行從而最終答案。程序歸納的學(xué)習(xí)依賴于給定知識(shí)庫(kù)的大量平行問(wèn)題-程序?qū)?。然而,?duì)于大多數(shù)知識(shí)庫(kù)來(lái)說(shuō),通常是缺乏這樣的標(biāo)注的,這使得學(xué)習(xí)非常困難。在本文中,我們提出了Program Transfer的方法,其目的是利用富資源知識(shí)庫(kù)上的程序標(biāo)注作為外部監(jiān)督信號(hào)來(lái)幫助缺乏程序標(biāo)注的低資源知識(shí)庫(kù)的程序歸納。對(duì)于Program Transfer,我們?cè)O(shè)計(jì)了一個(gè)新穎的兩階段解析框架,并設(shè)計(jì)了一個(gè)高效的基于知識(shí)庫(kù)本體的剪枝策略。首先,一個(gè)Sketch解析器將問(wèn)題翻譯成sketch,即函數(shù)的組合;然后,給定問(wèn)題和sketch,一個(gè)參數(shù)分析器從知識(shí)庫(kù)中搜索具體的函數(shù)參數(shù)。在搜索過(guò)程中,我們結(jié)合知識(shí)庫(kù)的本體來(lái)調(diào)整搜索空間。在ComplexWebQuestions和WebQuestionSP上的實(shí)驗(yàn)表明,我們的方法明顯優(yōu)于SOTA方法,證明了Program Transfer和我們框架的有效性。該工作與清華大學(xué)李涓子老師團(tuán)隊(duì)和華為諾亞實(shí)驗(yàn)室劉群老師團(tuán)隊(duì)合作完成。

?A Simple but Effective Pluggable Entity Lookup Table for Pre-trained Language Models

Findings of ACL 2022
Sememe Prediction for BabelNet Synsets Using Multilingual and Multimodal Information
作者:豈凡超,呂傳承,劉知遠(yuǎn),孟笑君,孫茂松,鄭海濤
類型:Long Paper
摘要:在語(yǔ)言學(xué)中,義原被定義為語(yǔ)義的最小單位。人工標(biāo)注單詞的義原知識(shí)庫(kù)已成功應(yīng)用到各種NLP任務(wù)中。然而,現(xiàn)有的義原知識(shí)庫(kù)只涵蓋了少數(shù)幾種語(yǔ)言,阻礙了義原的廣泛利用。針對(duì)這一問(wèn)題,文章提出了BabelNet同義詞集的義位預(yù)測(cè)任務(wù)(SPBS),旨在基于BabelNet多語(yǔ)言百科詞典構(gòu)建多語(yǔ)言義原知識(shí)庫(kù)。通過(guò)自動(dòng)預(yù)測(cè)BabelNet同義詞集的義原,該同義詞集中的多個(gè)語(yǔ)言的詞將同時(shí)獲得義原注釋。然而,以往的SPBS方法并沒(méi)有充分利用BabelNet中豐富的信息。在本文中,我們利用BabelNet中的多語(yǔ)言同義詞、多語(yǔ)言定義和圖像來(lái)實(shí)現(xiàn)SPBS。我們?cè)O(shè)計(jì)了一個(gè)多模態(tài)信息融合模型,對(duì)這些信息進(jìn)行編碼和組合,進(jìn)行義原預(yù)測(cè)。實(shí)驗(yàn)結(jié)果表明,我們的模型明顯優(yōu)于以前的方法。該工作與清華大學(xué)深圳研究院鄭海濤老師團(tuán)隊(duì)合作完成。

Going "Deeper": Structured Sememe Prediction via Transformer with Tree Attention
作者:葉奕寧,豈凡超,劉知遠(yuǎn),孫茂松
類型:Long Paper
摘要:含有單詞和最小語(yǔ)義單位的義原知識(shí)庫(kù)在很多NLP任務(wù)中有較好的表現(xiàn)。由于人工構(gòu)建義原知識(shí)庫(kù)費(fèi)時(shí)費(fèi)力,一些研究試圖通過(guò)對(duì)未標(biāo)注詞語(yǔ)的義原進(jìn)行預(yù)測(cè)來(lái)實(shí)現(xiàn)自動(dòng)的知識(shí)庫(kù)構(gòu)建。然而已有的研究忽略了義原語(yǔ)義系統(tǒng)中非常重要的一部分——層次結(jié)構(gòu)。本篇工作中,我們首次嘗試結(jié)構(gòu)化的義原預(yù)測(cè),即將單詞對(duì)應(yīng)的義原預(yù)測(cè)為樹(shù)狀結(jié)構(gòu)。同時(shí),我們針對(duì)性地修改了注意力計(jì)算方法,由此設(shè)計(jì)了基于transformer的義原樹(shù)預(yù)測(cè)模型,并在實(shí)驗(yàn)中驗(yàn)證了它的有效性。我們也對(duì)模型的效果進(jìn)行了定量和定性的分析。本工作的代碼將會(huì)開(kāi)源。

Do Pre-trained Models Benefit Knowledge Graph Completion? A Reliable Evaluation and a Reasonable Approach

ELLE: Efficient Lifelong Pre-training for Emerging Data

Prompt Tuning for Discriminative Pre-trained Language Models

國(guó)際計(jì)算語(yǔ)言學(xué)年會(huì)(Annual Meeting of the Association?for Computational Linguistics,簡(jiǎn)稱ACL)是自然語(yǔ)言處理領(lǐng)域頂級(jí)學(xué)術(shù)會(huì)議,在世界范圍內(nèi)每年召開(kāi)一次,2022年是第60屆會(huì)議,將于5月22-27日在愛(ài)爾蘭首都都柏林以線上線下混合形式舉行。
本次ACL會(huì)議首次與滾動(dòng)審稿ARR合作,并首次在OpenReview系統(tǒng)上進(jìn)行審稿匹配。在滾動(dòng)審稿中,作者先將論文提交到論文池進(jìn)行集中滾動(dòng)審閱,在充分完善后,再將論文、ARR審稿意見(jiàn)等提交至ACL 2022。
大會(huì)官網(wǎng):https://2022.aclweb.org/。

