《電子技術應用》
您所在的位置:首頁 > 可編程邏輯 > 業界動態 > 首次成功用CNN自動生成代碼:北大研究者搞定了爐石傳說

首次成功用CNN自動生成代碼:北大研究者搞定了爐石傳說

2018-11-28

如果人工智能可以自動生成代碼,程序員們就能減少很多工作壓力(失業是不可能失業的)。


北大研究者最近提出了使用卷積神經網絡(CNN)解碼器生成代碼的方法,并在《爐石傳說》數據集上進行了測試,效果超過了此前各類業內最佳模型。該研究的論文已被 AAAI 2019 大會接收。研究者稱,這是首個成功用 CNN 解碼器生成代碼的工作。


我們知道,程序包含對程序建模非常重要的豐富的結構信息。然而,傳統的 Seq2Seq 神經網絡不能直接建模程序結構。圖 1 展示了一個 Python 抽象語法樹(AST)示例,其中的 n3、n6 兩個節點需要擁有父-子節點那樣密集的關聯,但如果該樹是前序穿過序列的,彼此間就會比較遠。這對 Seq2Seq 模型而言就比較困難。

微信圖片_20181128204604.jpg

圖 1:代碼的抽象語法樹(AST):init(a)。


為了解決這個問題,Dong 和 Lapata (2016) 提出了一種沿著程序的抽象語法樹生成代碼的方法,但這種生成仍然處于 token 級別。近來,更多的研究通過在每一步預測或重寫語法規則 (Xiong et al. 2018; Yin and Neubig 2017; Rabinovich, Stern, and Klein 2017) 來生成程序;因此,確保了生成的程序在語法上是正確的。當在這些方法中使用神經網絡時,RNN 被用來捕獲解碼器中預測的自回歸。


在深度學習社區,研究人員對使用卷積網絡作為解碼器越來越感興趣 (Gehring et al. 2017; Chaturvedi, Pandit, and Garain 2018),因為它效率高且容易訓練。研究者進一步觀察發現,程序比自然語言語句大得多,即使是帶有長短期記憶 (Hochreiter and Schmidhuber 1997, LSTM) 單元的 RNN 也存在長期依賴問題 (Bengio, Simard, and Frasconi 1994)。而 CNN,卻能通過滑動窗口有效地捕獲不同區域的特征。


為此,研究者提出了一種基于語法的結構化 CNN 來用于代碼生成。他們的模型根據 AST 中的語法結構規則生成代碼,例如,If → expr stmt* stmt*就遵循了他們先前研究 (Xiong et al. 2018) 中的框架。由于子節點序列是通過一個預測步驟生成的,因此與逐個 token 生成相比,它能夠實現更緊湊的預測。換句話說,該模型預測語法規則序列,最終形成整個程序。


在他們的方法中,語法規則的預測主要基于三種類型的信息:指定生成程序的源序列,先前預測的語法規則,以及已經生成的部分 AST。在這里,第一個信息是編碼器的輸入,后兩者使得解碼器能夠自回歸,和以前一樣,解碼器以編碼器為條件。

微信圖片_20181128204624.jpg

圖 2:模型概覽,虛線箭頭表示注意力控制器。


研究者在已有的基準數據集 HearthStone(爐石傳說)上進行了實驗(如圖 4 所示),任務是 Python 代碼生成(Ling et al. 2016),表 2 展示了該數據集的統計。實驗結果表明他們提出的基于 CNN 的代碼生成方法遠遠超越了以前的基于 RNN 的方法(如表 3 所示)。研究者還進行了擴展性的控制變量測試,表明基于語法的結構化 CNN 相比一般的 CNN 應用方法更優越(如表 4 所示)。研究者進一步在兩個語義解析任務上評估了該方法,其中目標程序比爐石傳說的更短;他們的方法依然得到了和以前的最佳方法相當的性能,表明該方法具備魯棒性(如表 5 所示)。

微信圖片_20181128204645.jpg

圖 4:爐石傳說數據集的示例卡片,(a)輸入描述;(b)輸出程序。

微信圖片_20181128204706.jpg

表 2:數據集統計。

微信圖片_20181128204724.jpg

表 4:控制變量測試。


論文中研究者稱,他們的研究是第一次成功使用 CNN 解碼器生成代碼的工作。表 3 展示了基于 CNN 的代碼生成結果,并與此前的業內最佳模型進行了對比。


如表中所示,新模型在準確率和 BLEU 分數方面都優于以前的所有結果。尤其是,新模型在準確率方面顯著高于此前的業內最佳模型——在字符串準確率上高出了 5%。對于手動調整的準確率來說,Yin & Neubig(2017)曾報告過大約 2% 的提升。在本文中,北大的研究者也觀察到了類似的效果,實現了 30.3% 的 Acc+分數,這證明了新方法的有效性。

微信圖片_20181128204749.jpg

表 3:新模型與此前業內最佳模型的對比,以百分比記。在手動調整后性能大概能增加 2%(Yin and Neubig (2017))。

微信圖片_20181128204818.jpg

表 5:語義分析的準確性(以百分比記)。


論文:A Grammar-Based Structural CNN Decoder for Code Generation

微信圖片_20181128204841.jpg


論文地址:https://arxiv.org/abs/1811.06837


摘要:代碼生成可以將一份程序描述映射為用一種編程語言寫成的可執行源代碼。現有的方法主要依賴于循環神經網絡(RNN)作為解碼器。然而,我們發現程序比自然語言句子包含的 token 要多得多,因此 RNN 可能并不適合捕捉長句。本文提出了一個基于語法的結構化卷積神經網絡(CNN),用于代碼生成。我們的模型通過預測編程語言的語法規則來生成程序;我們設計了若干個 CNN 模塊,包括基于樹的卷積和前序卷積,其信息通過專用的注意力池化層進一步聚集。在爐石傳說基準數據集上的實驗結果顯示,我們的 CNN 代碼生成器的表現超出之前最佳方法 5 個百分點;我們通過另外幾個實驗在若干語義分析任務上驗證了模型的魯棒性。為了更好地理解模型的每個部分,我們還進行了深入的控制變量測試。


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 香港三级日本三级a视频 | 在线性爱视频 | 久久99中文字幕伊人 | 日韩美女色高清在线看 | 亚洲免费成人 | 日韩欧美在线综合网高清 | 久久天天躁日日躁狠狠躁 | 毛片在线视频在线播放 | 最刺激黄a大片免费网站 | 免费成年人视频在线观看 | 国产又黄又免费aaaa视频 | 久久综合九色综合欧美狠狠 | 亚洲成人欧美 | 欧美区日韩区 | 欧美18—19sex性护士 | 91在线精品你懂的免费 | 欧美日韩一区二区三区视频播 | 久久天堂夜夜一本婷婷麻豆 | 一级特黄aaa大片在线观看视频 | 在线精品国产成人综合第一页 | 最近更新2019中文字幕 | 国产成人不卡亚洲精品91 | 99久久精品国产一区二区 | 伊人精品国产 | 欧美日韩一区二区三在线 | 国产成人亚综合91精品首页 | 欧美在线视频精品 | 狠狠操91 | 日本xxx18hd| 国产亚洲精品看片在线观看 | 18级成人毛片免费观看 | 精品亚洲欧美高清不卡高清 | 在线观看丝袜国产 | 午夜免费视频 | 亚洲精品午夜级久久久久 | 色干干 | 黄色成人在线 | 亚洲国产成人成上人色 | 在线播放h| 中国国产一级毛片视频 | 2020精品极品国产色在线观看 |