報(bào)告題目:Graph2Seq:自然語(yǔ)言處理中的從圖到序列學(xué)習(xí)(Graph-to-Sequence Learning in Natural Language Processing)
報(bào)告人:吳凌飛 研究員
單位:IBM全球研究院總部(IBM T.J. Watson Research Center)
報(bào)告時(shí)間:2019年5月22日(周三)上午10:30
報(bào)告地點(diǎn):翡翠湖校區(qū)翡翠科教樓A座902會(huì)議室
摘要:從序列到序列(Sequence-to-sequence, Seq2Seq)技術(shù)及其眾多變體在神經(jīng)機(jī)器翻譯、自然語(yǔ)言生成、語(yǔ)音識(shí)別和藥物發(fā)現(xiàn)等許多方面都取得了優(yōu)異的性能。盡管Seq2Seq模型具有很強(qiáng)的靈活性和表達(dá)能力,但它只能應(yīng)用于輸入為序列的問(wèn)題。然而,序列是結(jié)構(gòu)化數(shù)據(jù)的一種簡(jiǎn)單表示,許多重要的問(wèn)題需要用復(fù)雜的結(jié)構(gòu)(如圖)來(lái)表示。這些圖結(jié)構(gòu)數(shù)據(jù)不僅可以編碼復(fù)雜的成對(duì)關(guān)系,以便學(xué)習(xí)更多的信息表示;同時(shí),序列數(shù)據(jù)中的結(jié)構(gòu)和語(yǔ)義信息可以通過(guò)合并特定領(lǐng)域的知識(shí)來(lái)擴(kuò)充原始序列數(shù)據(jù)。為了處理復(fù)雜的結(jié)構(gòu)圖輸入,我們提出了Graph2Seq,這是一種用于圖到序列學(xué)習(xí)的新的基于注意的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。Graph2Seq可以看作是一個(gè)廣義的圖輸入Seq2Seq模型,它是一種通用的端到端的神經(jīng)編解碼器結(jié)構(gòu),它對(duì)輸入圖進(jìn)行編碼,并對(duì)目標(biāo)序列進(jìn)行解碼。在本次講座中,吳凌飛研究員首先介紹Graph2Seq模型,然后討論如何在不同的NLP任務(wù)中應(yīng)用該模型。他最近的兩部著作(“Exploiting Rich Syntactic Information for Semantic Parsing with Graph-to-Sequence Model”,EMNLP 2018)和(“SQL-to-Text Generation with Graph-to-Sequence Model”,EMNLP 2018)中說(shuō)明了Graph2Seq模型相對(duì)于各種Seq2Seq模型和Tree2Seq模型的優(yōu)勢(shì)。
講者簡(jiǎn)介:吳凌飛,IBM全球研究院總部(IBM T.J. Watson Research Center) 研究員 , 威廉瑪麗大學(xué)計(jì)算機(jī)系博士,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)(深度學(xué)習(xí))、表征學(xué)習(xí)和自然語(yǔ)言處理的交叉領(lǐng)域,尤其是快速發(fā)展的圖神經(jīng)網(wǎng)絡(luò)及其在新的應(yīng)用領(lǐng)域和任務(wù)上的擴(kuò)展。吳博士已經(jīng)發(fā)表30多篇頂尖雜志和會(huì)議,包含NIPS、ICML、ICLR、SysML、AISTATS、KDD、ICDM、NAACL、EMNLP、AAAI、ICASSP、SC、SIAM Journal on Scientific Computing, IEEE Transaction on Big Data, and Journal of Computational Physics。吳博士的研究已被眾多媒體報(bào)道,包括Venturebeat、TechTalks、季啟智新、MIT News、 IBM Research News和SIAMNews,合作了13項(xiàng)美國(guó)專利。吳博士組織并擔(dān)任了The First International Workshop on Deep Learning on Graphs: Methods and Applications (DLG’19)聯(lián)合主席,18年IEEE BigData Tutorial的聯(lián)合主席。經(jīng)常性擔(dān)任NIPS, ICML, ICLR, KDD, ACL, IJCAI, and AAAI.等國(guó)際頂級(jí)會(huì)議的TPCmember。