聚搜云(www.gzjcsc123.com)是上海聚搜信息技術有限公司旗下品牌,坐落于魔都上海,服務于全球、2019年成為阿里云代理商生態(tài)合作伙伴。與阿里云代理商、騰訊云、華為云、西部數(shù)碼、美橙互聯(lián)、AWS亞馬遜云國際站代理商、聚搜云,長期戰(zhàn)略合作的計劃!阿里云國際站代理商專業(yè)的云服務商!
近日,阿里云機器學習平臺PAI與華東師范大學高明教授團隊合作的論文《結構感知的稀疏注意力Transformer模型SASA》被頂會 SIGIR 2022錄取。論文主導通過引入稀疏自注意力的方式來提高Transformer模型處理長序列的效率和性能,并提出了結合代碼語言和結構特性的面向長代碼序列的Transformer模型性能優(yōu)化方法。
SIGIR是人工智能領域智能信息檢索方向頂級國際會議,涉及搜索引擎、推薦系統(tǒng)等多個方向,該會議曾推動了面向搜索的排序模型、基于深度學習的推薦算法等人工智能領域的核心創(chuàng)新,在學術和工業(yè)界都有巨大的影響力。此次入選意味著阿里云機器學習平臺PAI自研的稀疏注意力Transformer模型達到了業(yè)界先進水平,獲得了國際學者的認可,展現(xiàn)了中國機器學習系統(tǒng)技術創(chuàng)新在國際上的競爭力。
那么SASA主要解決了什么問題?基于Transformer的模型在self-attention模塊的復雜度隨序列長度呈次方增長,多數(shù)編程預訓練語言模型(Programming-based Pretrained Language Models, PPLM)采用序列截斷的方式處理代碼序列,從而導致上下文信息缺失。
針對以上問題,SASA設計了四種稀疏注意力模式,包括:sliding window attention,global attention,Top-k attention,AST-aware attention,在一定程度上將計算復雜度與序列長度解耦。其中sliding window和Top-k模式基于局部上下文和重要的attention交互學習表示,抽象語法樹(AST)模式引入代碼的結構特性,與序列上下文信息相互補足,global attention通過與序列中所有token進行交互來獲取全局信息。對比CodeBERT,GraphCodeBERT等方法,SASA在多個長代碼任務上取得最佳效果,同時也降低了內存和計算復雜度。
SASA技術將在開源框架EasyNLP中集成,給PAI的NLP開發(fā)者提供基于稀疏注意力機制的長序列自然語言處理能力。機器學習平臺PAI面向企業(yè)客戶級開發(fā)者,提供輕量化、高性價比的云原生機器學習,涵蓋PAI-DSW交互式建模、PAI-Designer可視化建模、PAI-DLC分布式訓練到PAI-EAS模型在線部署的全流程。
論文信息
EasyNLP開源地址:https://github.com/alibaba/EasyNLP
論文鏈接:https://arxiv.org/abs/2205.13730
論文名字
Understanding Long Programming Languages with Structure-Aware Sparse Attention. SIGIR 2022
論文作者
劉婷婷,汪誠愚,陳岑,高明,周傲英
