91黄页网站在线观看,蜜臀av在线观看视频,在线免费观看污污的网站,免费观看很色国产精品视频,免费看片亚洲一区二区三区,天天射天天插少妇高潮av,国产精品毛片av久久,制服丝袜av网址在线,黄色韩漫免费观看无删减

您好,歡迎訪問上海聚搜信息技術有限公司官方網站!
24小時咨詢熱線:4008-020-360

阿里云機器學習平臺PAI與華東師范大學論文入選SIGIR 2022

時間:2022-07-11 21:59:20 點擊:

  聚搜云(www.gzjcsc123.com)是上海聚搜信息技術有限公司旗下品牌,坐落于魔都上海,服務于全球、2019年成為阿里云代理商生態(tài)合作伙伴。與阿里云代理商、騰訊云、華為云、西部數(shù)碼、美橙互聯(lián)、AWS亞馬遜云國際站代理商、聚搜云,長期戰(zhàn)略合作的計劃!阿里云國際站代理商專業(yè)的云服務商!

  近日,阿里云機器學習平臺PAI與華東師范大學高明教授團隊合作的論文《結構感知的稀疏注意力Transformer模型SASA》被頂會 SIGIR 2022錄取。論文主導通過引入稀疏自注意力的方式來提高Transformer模型處理長序列的效率和性能,并提出了結合代碼語言和結構特性的面向長代碼序列的Transformer模型性能優(yōu)化方法。

  SIGIR是人工智能領域智能信息檢索方向頂級國際會議,涉及搜索引擎、推薦系統(tǒng)等多個方向,該會議曾推動了面向搜索的排序模型、基于深度學習的推薦算法等人工智能領域的核心創(chuàng)新,在學術和工業(yè)界都有巨大的影響力。此次入選意味著阿里云機器學習平臺PAI自研的稀疏注意力Transformer模型達到了業(yè)界先進水平,獲得了國際學者的認可,展現(xiàn)了中國機器學習系統(tǒng)技術創(chuàng)新在國際上的競爭力。

  那么SASA主要解決了什么問題?基于Transformer的模型在self-attention模塊的復雜度隨序列長度呈次方增長,多數(shù)編程預訓練語言模型(Programming-based Pretrained Language Models, PPLM)采用序列截斷的方式處理代碼序列,從而導致上下文信息缺失。

  針對以上問題,SASA設計了四種稀疏注意力模式,包括:sliding window attention,global attention,Top-k attention,AST-aware attention,在一定程度上將計算復雜度與序列長度解耦。其中sliding window和Top-k模式基于局部上下文和重要的attention交互學習表示,抽象語法樹(AST)模式引入代碼的結構特性,與序列上下文信息相互補足,global attention通過與序列中所有token進行交互來獲取全局信息。對比CodeBERT,GraphCodeBERT等方法,SASA在多個長代碼任務上取得最佳效果,同時也降低了內存和計算復雜度。

  SASA技術將在開源框架EasyNLP中集成,給PAI的NLP開發(fā)者提供基于稀疏注意力機制的長序列自然語言處理能力。機器學習平臺PAI面向企業(yè)客戶級開發(fā)者,提供輕量化、高性價比的云原生機器學習,涵蓋PAI-DSW交互式建模、PAI-Designer可視化建模、PAI-DLC分布式訓練到PAI-EAS模型在線部署的全流程。

  論文信息

  EasyNLP開源地址:https://github.com/alibaba/EasyNLP

  論文鏈接:https://arxiv.org/abs/2205.13730

  論文名字

  Understanding Long Programming Languages with Structure-Aware Sparse Attention. SIGIR 2022

  論文作者

  劉婷婷,汪誠愚,陳岑,高明,周傲英

標簽

熱門文章更多>

聯(lián)系人:羅先生

QQ:12623185

手機/微信:15026612550

收縮
  • 電話咨詢

  • 4008-020-360
微信咨詢 獲取代理價(更低折扣)
更低報價 更低折扣 代金券申請
咨詢熱線: 15026612550