0
雷鋒網AI科技評論按:這幾天在澳洲舉行的人工智能領域頂級會議“人工智能國際聯合大會”(International Joint Conference on Artificial Intelligence,IJCAI 2017),IJCAI今年共收到2540篇論文投稿,最終錄用660篇,錄用率26%。
雷鋒網注意到在這660篇文章中,清華大學 自然語言處理與社會人文計算實驗室(thunlp)就有7篇論文被IJCAI收錄。它們分別是:
1、《Fast Network Embedding Enhancement via High Order Proximity Approximation 》
一句話:針對網絡表示學習問題提出一種基于高階鄰接度逼近的快速算法,能夠普遍提升已有網絡表示學習算法的性能。

摘要:最近在網絡頂點向量表示的學習上提出了許多網絡表示學習(NRL)方法。在這篇文章中,我們將現有的大多數NRL方法統一歸納為兩步驟框架,包括鄰近度矩陣構造和維度降低。我們集中分析鄰近度矩陣構造這一步驟。當構建鄰近度矩陣時我們得出一個結論,即可以通過高階鄰近度來改進NRL方法。我們提出網絡嵌入更新(Network Embedding Update, NEU)算法,其中隱含地有理論近似約束的高階鄰近度,它可以應用到任意一個NRL方法中來提高這些方法的性能。實驗上我們對多標簽分類和連接預測任務做了實驗。結果表明,NEU可以對所有三種公開數據集的NRL方法有一致且顯著的改進,運行時間幾乎可以忽略不計。本文代碼可以從https://github.com/thunlp/NEU 獲得。
論文下載地址:https://www.ijcai.org/proceedings/2017/0544.pdf
2、《Joint Training for Pivot-based Neural Machine Translation 》
一句話:針對低資源語言的神經機器翻譯提出了源語言-橋接語言和橋接語言-目標語言翻譯模型的聯合訓練算法,增強兩個模型在參數估計中的關聯性。

摘要:近來神經網絡機器翻譯方法在資源豐富的語言上表現極佳,但是對于低資源語言卻有著數據稀缺的問題。這個問題可以通過橋接語言來連接源語言和目標語言得以緩解,但是目前源語言-橋接語言和橋接語言-目標語言的模型在訓練時大多是相互獨立的。在我們的工作中,我們引入了基于橋接語言的神經機器翻譯的聯合訓練算法。我們提出了三種方式來連接源-橋接和橋接-目標這兩種模型,使他們在訓練過程中能夠相互作用。基于Europarl和WMT語料庫的實驗表明,這種聯合訓練在多種語言中相比比獨立訓練效果都有顯著提高。
論文下載地址:https://www.ijcai.org/proceedings/2017/0555.pdf
3、《TransNet: Translation-Based Network Representation Learning for Social Relation Extraction 》
一句話:提出社會網絡中用戶關系抽取問題,成功地利用用戶低維表示間的平移(Translating)思想表示用戶關系,實現用戶關系的識別與標注。

摘要:常規的網絡表示學習(NRL)模型一般是通過簡單地將每個邊緣作為二分/連續的值來學習低維丁點表示。但實際上,在邊緣部分存在豐富的語義信息,且頂點之間的相互作用通常會保留不同的含義,這些信息在現有的大部分NRL模型中都被忽略了。在本文中,我們提出了一種基于翻譯的NRL模型,TransNet,通過將頂點之間的相互作用作為翻譯來操作。此外,我們將社會化關系提取(Social Relation Extraction, SRE)的任務格式化,用來評估NRL方法對頂點關系建模的能力。SRE的實驗結果表明,TransNet在hits@1上比其他基準方法顯著提高10%到20%。源代碼和數據集可以從https://github.com/thunlp/TransNet提取。
論文下載地址:https://www.ijcai.org/proceedings/2017/0399.pdf
4、《Lexical Sememe Prediction via Word Embeddings and Matrix Factorization》
一句話:提出面向HowNet的義原預測任務,提出基于詞表示和矩陣分解的方法,能夠有效預測新詞或短語的義原信息。

摘要:義原(sememe)被定義為人類語言的最小語義單位。人們以前通過手動注釋文本義原來形成語言知識的基礎。但手動注釋不僅耗時、費力,注釋結果也具有顯著的不一致性以及較大的噪聲。在這篇文章中,我們首次探索了基于詞嵌入編碼的詞語義學意義的詞匯義原自動預測。此外我們應用矩陣因式分解方法來學習語義和詞之間的語義關系。在實驗中,我們采用了一個實際生活中的知識庫HowNet進行訓練和評估,結果顯示了我們的詞匯義原預測方法的有效性。我們的這種方法在現有噪雜的義原知識庫的注釋驗證和新詞匯/短語的注釋中將會有很大的應用。
論文下載地址:https://www.ijcai.org/proceedings/2017/0587.pdf
5、《Iterative Entity Alignment via Joint Knowledge Embeddings 》
一句話:針對異質知識圖譜間的實體對齊問題,僅根據異質知識圖譜的結構信息,提出利用知識的分布式表示學習在低維語義空間中有效實現實體對齊。

摘要:實體對齊旨在將其對應方與多個知識圖(Knowledge Graphs, KG)聯系起來。大多數現有的方法通常依賴諸如維基百科鏈接這樣的實體外部信息,且需要昂貴的受凍特征構造來完成對齊。在本文中,我們提出了一種通過聯合知識嵌入來實現實體對齊的新方法。在我們的方法,我們根據在這種聯合語義空間中的語義距離,將實體和各種KG的關系共同編碼成一個統一的低維語義空間。在這個過程中,我們可以根據在聯合語義空間中它們的語義距離將這些實體對齊。更具體地說,我們提出了一種迭代和參數共享的方法來提高對齊的性能。根據實際生活中的數據集的實驗結果表明,與基準方法相比,我們的方法對實體對齊有顯著的改進,并且利用聯合知識嵌入可以進一步提高各種KG實現中的表現。
論文下載地址:https://www.ijcai.org/proceedings/2017/0595.pdf
6、《Image-embodied Knowledge Representation Learning》
一句話:針對知識的分布式表示學習問題,成功地引入實體的圖像信息,顯著提升知識表示能力。

摘要:實體圖像可以為知識表示學習提供重要的視覺信息。大多數常規的方法僅從結構化的三元組來學習知識表示,而忽略了從實體圖像中提取的豐富的視覺信息。在本文中,我們提出了一種新穎的圖像呈現的知識表示學習模型(Image-embodied Knowledge Representation Learning model, IKRL),其中知識表示是同時用三重事實和圖像來學習的。更具體地說,我們首先用句有神經圖像編碼器的實體的所有圖像構造表示。然后,這些圖像表示通過基于注意的方法被集成到聚合的基于圖像的表示中。我們在知識圖實現和三重分類上測試了我們的IKRL模型。實驗結果表明,我們的模型在兩個任務中都優于其他的基準方法,這也說明了視覺信息對于知識表示的重要性,以及我們的模型在學習圖像表示中的性能。
論文下載地址:https://www.ijcai.org/proceedings/2017/0438.pdf
7、《Maximum Expected Likelihood Estimation for Zero-resource Neural Machine Translation》
一句話:針對零資源神經機器翻譯提出最大期望似然估計準則訓練準則,實現在無標數據情況下的直接翻譯建模,緩解了傳統方法分段解碼所面臨的錯誤傳播問題。

摘要:雖然神經機器翻譯(neural machine translation, NMT)最近在翻譯少數資源豐富的語言中取得了顯著的進步,但并行語料庫并不總能用到大多數語言對中。為了解決這個問題,我們提出一種通過最大期望似然估計的零資源NMT方法。基本思想就是,在一個意向的源-目標語言翻譯模型中,我們最大限度地提高關于連接-源翻譯模型與連接-目標并行語料庫之間的期望值。為了近似獲得這個期望值,我們提出兩種方法來結合 連接-源模型 和 源-目標模型。對這兩種零資源語言對的實驗表明,我們所提出的方法相比于基準方法會有實質性的增益。我們還看到,當源-目標模型與連接-源模型聯合訓練時,后者也將獲得比獨立訓練較大的改進。
論文下載地址:https://www.ijcai.org/proceedings/2017/0594.pdf
雷鋒網注:本文參考了“我組7篇論文被人工智能頂級會議IJCAI 2017錄用”
相關文章:
現場|楊強教授當選新任IJCAI理事會主席后接受采訪:華人首次當選的個中細節
大陸人工智能學者第一人!周志華當選IJCAI 2021程序委員會主席(附會后采訪)
優必選斬獲 IJCAI 2017最佳學生論文獎,13篇論文入選
IJCAI 2017 最佳論文明日公布,華人已承包最佳學生論文獎
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。