中国无忧期刊网是专业从事评职称论文发表,核心期刊征稿,核心期刊发表,学术论文发表等服务的论文发表期刊咨询网。
展开
软件开发

深度程序理解视角下代码搜索研究综述

发布时间:2022-07-20   |  所属分类:软件开发:论文发表  |  浏览:  |  加入收藏
摘    要:代码搜索任务旨在通过分析用户需求,结合用户意图来找到满足其需求的软件构件。在加强软件复用性的同时,提高软件开发维护效率,降低成本。与传统的文档检索不同,程序特性往往隐含在标识符和代码结构中,理解程序功能是实现高效代码搜索的关键。首先,本文从深度程序理解视角切入对代码搜索任务进行定义,并总结梳理近期代码搜索研究进展。其次,本文针对当前代码搜索研究评估方法和数据集进行了整理。最后,针对研究中存在的问题,本文对未来代码搜索研究进行展望,为后来研究者提供参考。
 
关键词:程序理解;深度程序理解;代码搜索;自然语言查询;代码表示;信息检索;
 
A Code search Review: From the Perspective of Deep Program Comprehension
WEN Dongzhen ZHANG Fan LIU Haifeng YANG Liang
XU Bo LIN Yuan LIN Hongfei
Dalian University of Technology
 
Abstract:
The code search task aims to find the software components that meet the user's needs by analyzing the user's requirements and incorporating the user's intent. Code search can enhance software reusability, improve software development and maintenance efficiency and reduce costs. Unlike traditional document retrieval task, program features are implying in identifiers and code structures. Building the comprehension of source code is the key for code search. In this paper we first define the code search task from the perspective of deep program comprehension. Then we gather the evaluation methods and datasets of code search. Finally, to address the problems in the research, this paper provides an outlook on future code search research.
 
Keyword:
Program Comprehension; Deep Program Comprehension; Code Search; Natural Language Query; Code Representation; Information Retrieval;
 
开发人员在面对日常工作任务时会进行大量搜索行为,从公共资源库(包含开源社区、论坛博客等)或私有资源库(内部软件仓库、源代码平台、社区等)搜索可复用的代码片段、特定问题的解决方案、算法设计、软件文档以及软件工具等内容,以充分利用已有的软件开发资源和经验,在提高软件复用性的同时,降低开发成本并提升开发效率。Singer等人[1]于1997年针对软件开发者行为进行跟踪调研,相关研究结果表明代码搜索(Code Search)已成为软件开发活动中最为常见活动。
 
而Sadowski等人[2]研究表明,开发者平均每个工作日会构造12条查询语句对遇到的问题进行搜索。可以看到,代码搜索在软件开发活动中重要性日益提高。
 
Liu等人[3]工作,针对代码搜索工具相关工作进行了文献总结。作者从代码仓库组织、查询文本、检索模型以及评价方法角度,针对代码搜索工具建立分类体系进行归类。
 
代码搜索从搜索形式可分为,基于自然语言查询的代码搜索、代码克隆检测、基于测试用例的代码搜索、面向缺陷检测的代码搜索、应用程序接口搜索等[3]。其共同点在于从用户需求出发,结合信息检索、程序理解以及机器学习等技术对符合用户需求的代码文件或片段进行定位。
 
其中,基于自然语言查询的代码搜索更为贴近开发者实际需求,是目前代码搜索研究中的热点。代码搜索任务和传统Ad-hoc任务类似,但代码搜索任务还具有以下难点:
 
(1)跨模态匹配问题:代码搜索任务中查询和文档分别处于不同模态。其中查询主要以自然语言形式表达,而目标文档则是程序语言语法约束的源代码文本,在计算匹配时需要考虑跨模态语义鸿沟问题;
 
(2)查询意图理解问题:代码搜索任务中查询所表达的意图较为多样。其包括用户开发需求、实现特定技术路线的构造性需求以及使用特定接口的API需求等,在构建检索模型对用户查询需求进行理解时需要将软件工程领域知识与语义理解模型结合;
 
(3)程序理解问题:代码搜索模型首先需要建立对检索对象源代码片段的理解。其包括代码基础语法语义、API功能信息、代码结构特征以及代码功能特性等。其中标识符和程序结构是构建程序理解的核心;
 
可以看到,当前代码搜索研究主要面临的问题是如何理解程序功能以及基于程序理解的查询意图匹配,即基于程序理解对自然语言和代码片段进行联合建模。本文则从程序理解视角出发,针对近期代码搜索研究进展进行梳理。
 
本文组织方式如下:
 
本文第二节针对程序理解研究进行简介,并总结当前结合深度模型解决程序理解问题的一般范式;第三节从深度程序理解视角出发对代码搜索任务进行定义;第四节对当前研究工作进行细致梳理和对比;第五节介绍当前代码搜索研究的数据集以及评价方法;第六节对未来研究热点进行展望;第七节总结回顾全文内容。
 
1深度程序理解
1.1 程序理解
程序理解是软件工程中的关键活动,1968年召开的北约软件工程会议明确了程序理解在软件工程中的重要性[6]。软件工程师在进行软件重用、维护、迁移、逆向工程等任务时都依赖对于程序的理解[7]。
 
在协作开发场景下,开发者需要了解软件架构以及接口设计模式,进而对软件功能进行开发和实现;而在软件维护中,维护者需要了解已有项目中的主要功能和实现方法,以此为基础才能进一步进行缺陷检查以及修复。“理解”本质上是通过学习的手段,建立从理解的对象(如文本、源代码等)所属的概念域,到理解的主体(人、模型)所熟悉的概念域的(概念)映射[6]。
 
程序理解的主体是整个软件系统或者部分软件系统,旨在研究其如何运行[8]。
 
程序理解任务包括构建从代码模型到应用领域问题各抽象层次上的模型[9];利用领域知识理解软件,构建软件制品与使用场景之间的认知模型[10];通过阅读源代码判断其作用以及与其他构件之间的关系等。其最终目的在于支撑软件维护、演化和再工程。
 
按照实现方式分类,程序理解可分为基于分析和基于学习两种主要方法。基于分析的程序理解方法十分依赖分析者的个人知识和经验,构建程序理解模型等价于手动构造相关特征集。这类方法往往和具体软件系统耦合,相关经验规则较难迁移到其他项目中。同时,随着软件规模的增大,分析所需资源会随之加升高,效率会随之降低。
 
1.2 深度程序理解
互联网上大量开源代码的出现为基于学习的程序理解方法提供了充分的数据保证[11]。而近期Hindle[13]和Allmanis等人[14]研究表明,程序源代码具有和自然语言相似的特性,这种自然性(Naturalness)为结合统计模型尤其是深度模型进行源代码分析理解提供了理论依据。Tu等人[15]针对源代码局部性(Localness)对统计建模的影响进行了深入分析。Chen等人[16]则对深度源代码建模中的进展和挑战进行了详细梳理。
 
基于深度学习的程序理解框架如图1所示。其主要包含两个阶段,首先根据任务不同构建源代码文本的对应表示形式,在此基础上通过深度模型构建源代码特征向量并应用于具体任务中。
 
具体而言,程序源代码首先会根据任务被转换为字符序列(Char Sequence)、词序列(Token Sequence)、API序列(API Sequence)、抽象语法树(Abstract syntax Tree;AST)、函数调用图(Function Call Graph;CFP)以及控制流图(Control Flow Graph)等多种形式。
 
在此基础上,源代码不同表示通过神经网络转换为特征向量后被用于具体任务。
 
源代码不同表示形式特点以及适用任务如表1所示。基于词的表示[17,19]的程序建模和自然语言理解模型建模类似,实现简单易于迁移。但由于开发者自定义标识符情况的存在,基于词的代码建模方法往往会受到词表外词(OutOfVocabulary;OOV)问题困扰。基于字符序列的建模能够解决OOV问题,但是基于字符符号的表示方式难以学习到词义,因此在表示能力方面较弱。代码中包含的API往往设计规范,同时用词较为固定,因此针对API序列进行学习在代码搜索和摘要任务上都有着良好的效果[18]。
 
可以看到,单纯使用词序列作为源代码的表示形式存在表示能力不足的问题,因此结合多模态方法[21]建模源代码逐渐走入研究者的视野。基于语法树的代码建模能够改善序列建模中对于程序结构学习不充分的问题。但现有研究大多采用序列采样的方式[22,23]从语法树中获取节点序列进行表示,对于树结构的利用尚不充分。Wang等人[24]提出一种改进方法用于将语法树信息融合代码表示方法,语法树作为代码序列的平行语料,在与源代码序列对齐的基础上与自然语言片段进行建模,提高了源代码搜索任务效果。
 
而图神经网络在自然语言文本结构上的建模能力也激发了其在代码建模上的探索[25]。源代码数据相比于自然语言文本更易构建图表示形式,因此结合图结构的程序理解模型有着较好的前景[26]。
 
可以看到,深度代码理解研究是众多软件工程任务的基础,不同表示形式所带来的特征向量能够为代码搜索任务提供充足的特征信息。下一节则从深度程序理解视角针对代码搜索任务进行定义。
 
2代码搜索与文档搜索
代码搜索是信息检索和程序理解的交叉研究,与文档搜索技术类似,二者在诸如查询理解、文档索引、文档排序等多种技术中有着较多共性。但从搜索对象来看,由于源代码自身特性,对于代码的理解包括两个方面,即代码的使用场景以及代码算法原理。
 
以“冒泡排序”为查询,文档搜索和代码搜索的结果示例如表2所示。可以看到,文档搜索结果中往往包含原始关键词以及围绕关键词展开的一系列概念介绍和组合。而在代码搜索结果中,则重点关注这一算法的具体实现以及代码的正确性。
 
二者的核心差异在于如何实现文档(代码)的理解。同时,基于源代码功能特点、应用场景、功能实现方式等特性将代码与用户意图匹配,是两种搜索方式最大差异。
 
从形式化角度看,此处记Q为查询文本,C为源代码片段。如公式1所示,RQ(Q)为查询文本的表示模型,将用户查询转化为向量形式的中间表示。
 
ϕq=RQ(Q)(1)
 
相应的如公式2所示,RC(C)为程序理解模型,其将输入的代码片段转化为特征向量,进而对代码结构和语义进行表示。
 
ϕc=RC(C)(2)
 
查询文本和代码片段分别通过RQ和RC被表示为中间形式ϕ,从这两种特征向量出发计算二者匹配性质。如公式3所示,M(ϕQ,ϕC)表示相关度计算模型,结合向量距离等方式计算查询和代码片段匹配程度。
 
ψ=M(ϕQ,ϕC)(3)
 
相关性分数ψ越大表明当前代码片段样本与用户意图匹配程度越高。如公式4所示,假定有有Ca和Cb两个代码片段,Oa和Ob分别表示文档在结果列表中的顺序。则代码片段Ca和Cb与查询文本Q之间的相关性分数大小ψa和ψb关系决定排序位置,相关性分数越大,则在结果列表中的位置越靠前。
 
ψa>ψb⟶oa≺ob(4)
 
可以看到,代码搜索任务难点在于建立对源代码片段的理解,在此基础上实现用户查询意图和代码片段功能语义之间的匹配。
 
传统的基于信息检索模型的方法中,通常将代码视为普通的自然语言文档,在简单分词、去除停用词以及词干化[27]处理之后,结合自然语言模型对用户查询和代码文档进行向量化,最后计算二者的相似性。
 
Lucia等人[28]提出基于文本正规化的方法进行代码和文档之间的溯源。Hill等人[29]将方法名信息引入检索模型中增强代码检索结果表现。Lv等人[30]则结合API理解改进基于信息检索的代码搜索系统,其实现简单明了,是常用的研究基线。
 
Arwan等人[31]将主题模型和Tfidf模型[32]结合引入源代码和查询表示,提升了查询和代码匹配的准确性。Bajracharya等人[33]重新归类了代码搜索特征,并按照语义类别不同重新分配了特征权重,提高了检索效果。Niu等人[34]提出结合排序学习的代码搜索方法。Jiang等人[35]在此基础上对代码搜索特征体系进一步扩充,并将其与排序学习结合。
 
深度代码搜索研究则结合深度程序理解研究构建检索模型。Jiang等人[36]率先研究了源代码和自然语言之间的语义鸿沟问题。如图2所示,查询文本和代码片段通过自然语言模型和程序理解模型获得特征表示。获取特征向量后,通过深度模型构建匹配关系。
 
自然语言模型部分,词表示方面,常用word2vector模型[36]、glove模型[37]以及fasttext模型[38]进行表示;上下文表示方面常用Elmo模型[39]、Bert模型[40]等直接对句子建模获取表示。
 
匹配模型部分,Mitra等人[41]和Xu等人[42]研究了将排序学习训练目标与深度模型相结合,即神经信息检索模型。Wang等人[43]针对神经检索模型中的损失函数进行了总结,对比学习排序(ContrastiveLearning)、三元排序(TripletLoss)等方法逐渐受到关注。Wang等人[43]则结合强化学习改进查询理解,进而提高检索效果。
 
程序表示模型部分,Allamanis等人[44]进行了较为详细的总结和归类。早期研究将代码片段看作普通文本,结合自然语言建模方法,对词序列[46]和API序列进行建模;随后一些工作逐渐重视代码结构特性,提出结合抽象语法树[47,48,49]的代码结构建模方法;而源代码较强的图结构使得近期结合图神经网络源代码建模研究正逐步受到重视。
 
3深度代码搜索
本节从深度程序理解模型角度对当前代码搜索研究进展进行梳理。
 
如表3所示,在论文选择依据方面,本文使用code search、coderetrieval作为关键字进行搜索,涵盖软件工程、自然语言处理、神经计算等领域。最终,在相关会议、期刊以及预发表平台Arxiv上收集到与深度代码搜索相关的研究共40余篇论文。在此基础上,针对本文剔除了案例研究型论文、系统设计型论文以及没有明确评价指标的研究论文,最终留下27篇进行汇总。
 
分析维度包括源代码表示形式、深度模型结构、模型评估所使用数据集以及评价指标四个部分。源代码表示形式从深度程序理解视角出发规划,主要包括词序列表示、API序列表示、树结构(主要是抽象语法树)和图结构(函数调用图、语法树子图等)。深度模型结构方面包括卷积网络(CNN)、循环网络(LSTM)、Transformer、注意力机制等。
Gu等人[20]对深度代码搜索进行了早期探索,其首先对API的搜索和生成进行了研究,并在此基础上提出了深度代码搜索模型CodeNN,奠定了深度代码搜索模型的基础框架。而Li等人[17]则结合词向量以无监督方式对源代码进行建模,代码文本被处理为词序列后通过词向量构建篇章表示并在此基础上实现匹配检索。Chen等人[16]在此基础上进一步详细研究了自然语言和API之间的语义鸿沟问题。而Liu等人[3]则结合Li等人方法为代码搜索工具增添模糊查询能力。
 
从Gu等人工作出发,一系列尝试将不同深度模型架构应用于代码搜索任务中。Li等人[51]初步尝试了将注意力机制引入代码匹配计算中。Wang等人[54]则使用CNN构造多层注意力网络捕获源代码深度语义。Sinha等人[55]则将孪生网络应用于代码搜索任务中以增强查询和代码之间的匹配能力。Ling等人[23]将关键词匹配和句法模式学习相分离,提出在新的代码库上泛化性更强的自适应深度代码搜索模型。Zhao等人[62]则将对抗学习应用于训练过程中,提升了代码与查询文本的匹配度。
 
单纯序列建模方法难以利用源代码的结构信息,Haldar等人[59]和Sun等人[57]使用抽象语法树来信息增强代码表示能力。Gu等人[63]在此基础上结合语法树建模源代码中的语义依赖。Fang等人[67]则首次将自注意力网络用于代码搜索,Wang等人[43]在此基础上结合自注意力网络对源代码序列信息和结构信息进行统一建模。
 
图是源代码中普遍存在的结构,Ling等人[53]从语法树出发构建子图以对代码中不同节点之间关系进行建模。之后使用关系图卷积网络建模对查询和代码特征向量进行相互增强,最后提高检索效果。Wan等人[46]则将源代码不同表示方法视为多模态任务,将代码序列、语法树以及图三,者融合对代码进行语义建模表示。最终结果取得了SOTA效果,证实融合序列和结构语义在代码理解任务上具有实际效果。
 
而在预训练模型方面,随着Bert[68]等基于Transformer预训练模型在自然语言处理领域各项任务上取得SOTA结果。部分研究者也开始关注源代码的预训练效果。Feng等人[60]结合对比学习训练范式,在代码文本上进行Bert模型训练;Kanade等人[69]则聚焦于Python代码进行了Bert模型训练,并提出CuBert模型。Guo等人[26]将代码结构加入与训练过程中,提出GraphCodeBert,结合图结构增强了Transformer在预训练代码时的表达能力。而Ishtiaq等人[70]则在CodeBert等模型基础上通过代码搜索任务对与训练模型在具体代码理解任务上的效果进行了实际验证。结果表明,基于Transformer的预训练语言模型在代码理解任务上同样具备良好效果。
 
4数据集和评估方法
4.1 评价指标
代码搜索任务评价指标和信息检索任务一致,主要考虑结果的两个方面,即检索结果的相关性以及相关结果的排名次序。
 
精确度P@K计算方法如公式(5)所示,衡量检索结果中相关文档数量占检索结果的比重,其中K表示一次检索过程中得到的文档数目。
 
P@K=相关文档数目∩检索结果数目检索结果数目(5)
 
召回率R@K计算方法如公式(6)所示,其主要衡量检索结果中相关文档数目占总体相关文档的比重,K表示一次检索中得到的文档数目。
 
R@K=相关文档数目∩检索结果数目相关文档总数(6)
 
可以看到,精确度和召回率指标能够衡量前K个检索结果中相关文档比率的情况。
 
平均倒数排名(Mean Reciprocal Rank; MRR)引入相关文档在结果中顺序进行结果评价。如公式(7)所示Ranki表示相关文档在检索结果中的次序。
 
MRR=1|Q|∑|Q|i=11ranki(7)
 
如公式(8)所示,平均精确度(Average Precision)将精确度和文档次序相结合。其中m表示当前检索结果中相关文档总数,N表示检索结果总数,P(k)对应为本次检索结果中前k个结果的精确度(即P@K),rel(k)为一个指示函数,当第k个文档相关时为1否则为0。
 
AP=1m∑Nk=1P(k)*rel(k)(8)
 
MAP指标则将API在所有查询Q上计算了平均。
 
折扣累积增益(DCG)则将相关性等级引入评价。如公式(9)所示。rel(k)衡量第k个文档的相似性分数,如1~4整数阶段式分数,分母处取当前次序相关的对数作为折扣因因子。
 
DCG=∑Nk=12rel(k)−1log2(k+1)(9)
 
而归一化折扣累计增益NDCG指标则使用最优排列结果下的DCG分数对其归一化。除以上指标外,还有Frank评价描述在检索列表中首个相关结果在列表中次序。
 
4.2 评估数据集
本文针对2016年至今的代码搜索研究工作进行梳理,对其中用于评估模型效果的数据集进行了总结。选择标准方面,数据集必须公开可用,同时至少有两篇以上工作都使用该数据集对模型进行评价。
 
代码搜索常用评估数据集,如表4所示。其中共涉及七篇工作。数据集构造方面,目前工作主要通过自动化抽取方式构建大规模代码片段--自然语言文本组合作为训练数据。在自动标注基础上结合负采样方法构建验证数据。模型评估使用常见代码搜索问题作为查询,在构建的代码库上进行精细标注。
 
按照数据标注划分,其中CSN和ROSF数据严格进行了相关性等级标注;DCS、NCS和CosBench首先筛选了自然语言查询,之后在代码库上标注了相关代码片段。
 
按照评价指标划分,CNS和ROSF可以使用NDCG进行评价;StaQC主要结合文本分类指标进行评价;其余数据集大多采用MRR、P@K以及Frank指标进行评估。
 
按照编程语言划分,DCS、NCS、ROSF、CosBench数据集主要包含Java编程语言代码数据(涵盖安卓)。CoNaLa数据则结合Stackoverflow社区数据挖掘以及人工标注,构建了含有Java和Python编程语言的数据。StaQC数据集主要包含Python和SQL两种标注结果。CodeSearchNet数据集则包含Java、Python、Php、Ruby、Go、Javascript六种编程语言,覆盖编程语言范围最广。
 
按照任务划分,StaQC将代码搜索任务转换为相关文档分类问题,因此可结合文本分类方法进行研究;CSN和ROSF数据标注等级信息充分,可结合排序学习方法进行研究;其余数据集中包含的代码片段--自然语言组合可被用于代码摘要任务以及基于摘要技术的代码搜索研究。
 
4.3 结果对比
本节在数据集和评价指标介绍基础上,从模型效果角度对近期代码搜索实验工作进行梳理,重点侧重基于深度模型的代码搜索方法。评价指标则涵盖Recall、Precision、MRR、MAP、NDCG。统计时,提出数据集的相关文献Baseline相应在文献一栏中加粗注明。部分数据集如StaQC数据集提出时使用分类指标作Baseline,因此此处未注明。
 
具体结果如表5所示,本文按照数据集、相关文献以及评价指标对结果进行了组织。从数据集角度来看,StaQC数据集应用最为广泛,相对影响力较大。DCS数据集上的实验相对更为充分,不同文献针基本覆盖了所有的评价指标。从评价指标角度看,MRR指标是目前代码搜索模型验证时的常用指标。而从编程语言角度来看,目前研究较多的编程语言为Java。
 
5 未来研究展望
代码搜索研究正逐渐受到学界重视,本文从深度程序理解视角出发对代码搜索近期进展进行了梳理,而未来还可以从以下方面对该问题进行研究:
 
(1)稳定可复现的评价方法:当前多数研究中未开放评估数据集,而开放的数据集中存在着标注不一致等问题。Liu等人[74]研究表明数据集和开源代码问题使得深度模型的结果可复现性存在诸多问题。未来研究中应尝试构建一致明确的数据集和评价方法以及平台,以促进代码搜索研究。
 
(2)深入研究程序表示技术:源代码的理解和建模是代码搜索任务的关键。大多数模型采用序列建模方式对源代码进行特征抽取表示,少数工作将树、图结构数据简单进行了拼接融合以引入代码结构信息。在未来研究中可以尝试结合图神经网络对代码进行更加深入的结构建模。
 
(3)多模态源代码建模方法:源代码由标识符和编程语言特定的关键字组成。其中编程语言特定的关键字提供了代码的结构信息,而代码标识符则提供了更为充分的自然语言信息。未来研究中可以将两种模态数据相结合,对代码的结构语义以及自然语义进行统一建模,进而用于代码搜索任务。
 
(4)代码搜索研究应用问题:当前代码搜索研究重点关注基于深度代码建模方法的重排序问题。而代码搜索工具研究则更加关注代码数据的采集、清洗和管理。代码搜索研究中一些数据处理方法和效果优化方法与实际应用系统之间并不适用。未来研究中可以从实际应用目的出发设计搜索模型。
 
6总结
本文首先以深度程序理解视角切入对代码搜索任务进行了定义。其次,以此为基础总结得出深度代码搜索两种研究范式,并进行梳理相关研究成果。同时,本文总结整理了代码搜索任务常见的评估方法。最后结合本文研究结果,对未来研究进行了展望。
 
参考文献
[1] Singer J, Lethbridge T, Vinson N, et al. An examination of software engineering work practices[M]. CASCON First Decade High Impact Papers. 2010: 174-188.
[2] Sadowski C, Stolee K T, Elbaum S. How developers search for code: a case study[C]// Proceedings of the 2015 10th joint meeting on foundations of software engineering. 2015: 191- 201.
[3] Liu, Chao, et al. "Opportunities and challenges in code search tools."[J]. ACM Computing Surveys (CSUR) 54.9 (2021): 1-40.
[4] 刘斌斌,董威,王戟.智能化的程序搜索与构造方法综述[J].软件学报, 2018, 29(8): 2180-2197. DOI:10.13328/j.cnki.jos.005529.Liu B B, Dong W, Wang J. Survey on intelligent search and construction methods of program. Ruan Jian Xue Bao/Journal of Software, 2018, 29(8): 2180-2197 (in Chinese). http://www.jos. org.cn/1000-9825/5529.html
[5] Liu C, Xia X, Lo D, et al. CodeMatcher: Searching Code Based on Sequential Semantics of Important Query Words[J]. ACM Transac- tions on Software Engineering and Methodology (TOSEM), 2021, 31(1): 1-37.
[6] Maalej W, Tiarks R, Roehm T, et al. On the comprehension of program comprehension[J]. ACM Transactions on Software Engineering and Methodology (TOSEM), 2014, 23(4): 1-37.
[7] 金芝, 刘芳, 李戈. 程序理解: 现状与未来[J]. 软件学报, 2019, 30(1): 100-126.http://www. jos.org.cn/1000-9825/5643/htmZhiJin, Fang Liu, Ge Li. Program comprehension: Present and Future[J]. Ruan Jian Xue Bao/Journal of Software, 2019, 30(1): 110-126 (inChinese). http://www.jos.org. cn/1000-9825/5643/htm
[8] Muller H A, Tilley S R, Wong K. Understanding software systems using reverse engineering technology perspectives from the Rigi project[C]// CASCON'93. 1993: 217-226.
[9] O’brien M P. Software comprehension–a review & research direction[J]. Department of Com- puter Science & Information Systems University of Limerick, Ireland, Technical Report, 2003.
[10] Armaly A, Rodeghero P, McMillan C. A com- parison of program comprehension strategies by blind and sighted programmers[J]. IEEE Transactions on Software Engineering, 2017, 44(8): 712-724.
[11] 刘芳,李戈,胡星,金芝.基于深度学习的程序理解研究进展[J].计算机研究与发展, 2019, 56(8): 1605-1620.
[12] LeClair A, Haque S, Wu L, et al. Improved code summarization via a graph neural network[C]// Proceedings of the 28th International Con- ference on Program Comprehension, 2020: 184- 195.
[13] Hindle A, Barr E T, Gabel M, et al. On the naturalness of software[J]. Communications of the ACM, 2016, 59(5): 122-131.
[14] Allamanis M, Barr E T, Bird C, et al. Learning natural coding conventions[C]//Proceedings of the 22nd ACM SIGSOFT International Sym- posium on Foundations of Software Engineering. 2014: 281-293.
[15] Tu Z, Su Z, Devanbu P. On the localness of software[C]//Proceedings of the 22nd ACM SIGSOFT International Symposium on Founda- tions of Software Engineering. 2014: 269-280.
[16] Chen Q, Zhou M. A neural framework for retrieval and summarization of source code[C]// 2018 33rd IEEE/ACM International Conference on Automated Software Engineering (ASE). IEEE, 2018: 826-831.
[17] Sachdev S, Li H, Luan S, et al. Retrieval on source code: a neural code search[C]// Proceedings of the 2nd ACM SIGPLAN International Workshop on Machine Learning and Programming Languages. 2018: 31-41.
[18] 聂黎明,江贺,高国军,王涵,徐秀娟.代码搜索与API推荐文献分析[J].计算机科学, 2017, 44(S1): 475-482.
[19] Li H, Kim S, Chandra S. Neural code search evaluation dataset[J]. arXiv preprint arXiv:1908. 09804, 2019.
[20] Gu X, Zhang H, Zhang D, et al. Deep API learning[C]//Proceedings of the 2016 24th ACM SIGSOFT International Symposium on Founda- tions of Software Engineering. 2016: 631-642.
[21] Gu, Jian, Zimin Chen, and Martin Monperrus. "Multimodal Representation for Neural Code Search."[C]//2021 IEEE International Con- ference on Software Maintenance and Evolution (ICSME). IEEE, 2021.
[22] Huang Q, Qiu A, Zhong M, et al. A Code- Description Representation Learning Model Based on Attention[C]//2020 IEEE 27th International Conference on Software Analysis, Evolution and Reengineering (SANER). IEEE, 2020: 447-455.
[23] Ling C, Lin Z, Zou Y, et al. Adaptive Deep Code Search[C]//Proceedings of the 28th International Conference on Program Comprehension, 2020: 48-59.
[24] Wang W, Zhang Y, Zeng Z, et al. Trans^ 3: A transformer-based framework for unifying code summarization and code search[J]. arXiv preprint arXiv:2003.03238, 2020.
[25] Le T H M, Chen H, Babar M A. Deep Learning for Source Code Modeling and Generation: Models, Applications, and Challenges[J]. ACM Computing Surveys (CSUR), 2020, 53(3): 1-38.
[26] Guo D, Ren S, Lu S, et al. Graphcodebert: Pre-training code representations with data flow[C]//9th International Conference on Learning Representations(ICLR) 2021.
[27] Silvello G, Bucco R, Busato G, et al. Statistical stemmers: A reproducibility study[C]//European Conference on Information Retrieval. Springer, Cham, 2018: 385-397.
[28] Lucia D. Information retrieval models for recovering traceability links between code and documentation[C]//Proceedings 2000 Interna- tional Conference on Software Maintenance. IEEE, 2000: 40-49.
[29] Hill E, Pollock L, Vijay-Shanker K. Improving source code search with natural language phrasal representations of method signatures[C]//2011 26th IEEE/ACM International Conference on Automated Software Engineering (ASE 2011). IEEE, 2011: 524-527.
[30] Lü F, Zhang H, Lou J, et al. Codehow: Effective code search based on api understanding and extended boolean model[C]//2015 30th IEEE/ ACM International Conference on Automated Software Engineering (ASE). IEEE, 2015: 260- 270.
[31] Arwan A, Rochimah S, Akbar R J. Source code retrieval on stackoverflow using lda[C]//2015 3rd International Conference on Information and Communication Technology (ICoICT). IEEE, 2015: 295-299.
[32] Aizawa A. An information-theoretic perspective of tf–idf measures[J]. Information Processing & Management, 2003, 39(1): 45-65.
[33] Bajracharya S K, Ossher J, Lopes C V. Leveraging usage similarity for effective retrieval of examples in code reposi- tories[C]//Proceedings of the eighteenth ACM SIGSOFT international symposium on Foundations of software engineering. 2010: 157- 166.
[34] Niu H, Keivanloo I, Zou Y. Learning to rank code examples for code search engines[J]. Empirical Software Engineering, 2017, 22(1): 259-291.
[35] Jiang H, Nie L, Sun Z, et al. Rosf: Leveraging information retrieval and supervised learning for recommending code snippets[J]. IEEE Transactions on Services Computing, 2016, 12(1): 34-46.
[36] Li X, Jiang H, Kamei Y, et al. Bridging semantic gaps between natural languages and APIs with word embedding[J]. IEEE Transactions on Software Engineering, 2018, 46(10): 1081-1097.
[37] Mikolov T, Sutskever I, Chen K, et al. Distri- buted representations of words and phrases and their compositionality[J]. arXiv preprint arXiv: 1310.4546, 2013.
[38] Joulin A, Grave E, Bojanowski P, et al. Fasttext. zip: Compressing text classification models[J]. arXiv preprint arXiv:1612.03651, 2016.
[39] Bojanowski P, Grave E, Joulin A, et al. Enriching word vectors with subword informa- tion[J]. Transactions of the Association for Computational Linguistics, 2017, 5: 135-146.
[40] Vaswani, Ashish, et al. Attention is all you need[J]. Advances in neural information processing systems 30 (2017).
[41] Mitra B, Craswell N. An introduction to neural information retrieval[M]. Now Foundations and Trends, 2018.
[42] Xu J, He X, Li H. Deep learning for matching in search and recommendation[C]//The 41st Inter- national ACM SIGIR Conference on Research & Development in Information Retrieval, 2018: 1365-1368.
[43] Wang X, Hua Y, Kodirov E, et al. Ranked list loss for deep metric learning[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019: 5207-5216.
[44] Wang Chaozheng, et al. Enriching query semantics for code search with reinforcement learning[J]. Neural Networks, 2022, 145, 22-32.
[45] Allamanis M, Barr E T, Devanbu P, et al. A survey of machine learning for big code and natural- ness[J]. ACM Computing Surveys (CSUR), 2018, 51(4): 1-37.
[46] Wan, Y., Shu, J., Sui, Y., Xu, G., Zhao, Z., Wu, J., & Yu, P. Multi-modal attention network learning for semantic source code retrieval. [C]// In 2019 34th IEEE/ACM International Con- ference on Automated Software Engineering (ASE)2019: 13-25.
[47] Maddison C, Tarlow D. Structured generative models of natural source code[C]//International Conference on Machine Learning. PMLR, 2014: 649-657.
[48] Rabinovich M, Stern M, Klein D. Abstract syntax networks for code generation and semantic parsing[J]. arXiv preprint arXiv: 1704.07535, 2017.
[49] White M, Tufano M, Vendome C, et al. Deep learning code fragments for code clone detec- tion[C]//2016 31st IEEE/ACM International Conference on Automated Software Engineering (ASE). IEEE, 2016: 87-98.
[50] Gu X, Zhang H, Kim S. Deep code search[C]// 2018 IEEE/ACM 40th International Conference on Software Engineering (ICSE). IEEE, 2018: 933-944.
[51] Cambronero J, Li H, Kim S, et al. When deep learning met code search[C]//Proceedings of the 2019 27th ACM Joint Meeting on European Software Engineering Conference and Sympo- sium on the Foundations of Software Engi- neering. 2019: 964-974.
[52] Yao Z, Weld D S, Chen W P, et al. Staqc: A systematically mined question-code dataset from stack overflow[C]//Proceedings of the 2018 World Wide Web Conference. 2018: 1693-1703.
[53] Ling X, Wu L, Wang S, et al. Deep Graph Matching and Searching for Semantic Code Retrieval[J]. ACM Trans. Knowl. Discov. Data, 15: 88:1-88:21.
[54] Wang H, Zhang J, Xia Y, et al. COSEA: Convolutional Code Search with Layer-wise Attention[J]. arXiv preprint arXiv:2010.09520, 2020.
[55] Sinha R, Desai U, Tamilselvam S, et al. Evaluation of Siamese Networks for Semantic Code Search[J]. arXiv preprint arXiv:2011. 01043, 2020.
[56] Heyman G, Van Cutsem T. Neural Code Search Revisited: Enhancing Code Snippet Retrieval through Natural Language Intent[J]. arXiv preprint arXiv:2008.12193, 2020.
[57] Sun Z, Liu Y, Yang C, et al. PSCS: A Path-based Neural Model for SemanticCode Search[J]. arXiv preprint arXiv:2008.03042, 2020.
[58] Shuai J, Xu L, Liu C, et al. Improving Code Search with Co-Attentive Representation Learning[C]// Proceedings of the 28th International Con- ference on Program Comprehension, 2020: 196- 207.
[59] Haldar R, Wu L, Xiong J, et al. A Multi- Perspective Architecture for Semantic Code Search[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, 8563-8568.
[60] Feng Z, Guo D, Tang D, et al. Codebert: A pre-trained model for programming and natural languages[C]. Findings of the Association for Computational Linguistics: EMNLP 2020,1536- 1547
[61] Akbar S, Kak A. SCOR: source code retrieval with semantics and order[C]//2019 IEEE/ACM 16th International Conference on Mining Software Repositories (MSR). IEEE, 2019: 1-12.
[62] Zhao J, Sun H. Adversarial Training for Code Retrieval with Question-Description Relevance Regularization[C]//Findings of the Association for Computational Linguistics: EMNLP 2020, 4049-4059.
[63] Gu W, Li Z, Gao C, et al. CRaDLe: Deep code retrieval based on semantic Dependency Learning[J]. Neural Networks, 2021, 141: 385- 394.
[64] Li R, Hu G, Peng M. Hierarchical Embedding for Code Search in Software Q&A Sites[C]// 2020 International Joint Conference on Neural Networks (IJCNN). IEEE, 2020: 1-10.
[65] Ye W, Xie R, Zhang J, et al. Leveraging code generation to improve code retrieval and summarization via dual learning[C]//Pro- ceedings of The Web Conference 2020. 2020: 2309-2319.
[66] Hu G, Peng M, Zhang Y, et al. Neural joint attention code search over structure embeddings for software Q&A sites[J]. Journal of Systems and Software, 2020, 170: 110773.
[67] Fang S, Tan Y S, Zhang T, et al. Self-Attention Networks for Code Search[J]. Information and Software Technology, 2021, 134: 106542.
[68] Devlin J, Chang M W, Lee K, et al. Bert: Pre- training of deep bidirectional transformers for language understanding[C]//Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019, Minnea- polis, MN, USA, June 2-7, 2019, Volume 1.
[69] Kanade A, Maniatis P, Balakrishnan G, et al. Pre-trained contextual embedding of source code[J]. arXiv preprint arXiv:2001.00059, 2019.
[70] Ishtiaq A A, Hasan M, Haque M, et al. BERT2Code: Can Pretrained Language Models be Leveraged for Code Search?[J]. arXiv preprint arXiv:2104.08017, 2021.
[71] Yin P, Deng B, Chen E, et al. Learning to mine aligned code and natural language pairs from stack overflow[C]//2018 IEEE/ACM 15th International Conference on Mining Software Repositories (MSR). IEEE, 2018: 476-486.
[72] Husain H, Wu H H, Gazit T, et al. Code search net challenge: Evaluating the state of semantic code search[J]. arXiv preprint arXiv:1909.09436, 2019.
[73] Yan S, Yu H, Chen Y, et al. Are the code snippets what we are searching for? a benchmark and an empirical study on code search with natural-language queries[C]//2020 IEEE 27th International Conference on Software Analysis, Evolution and Reengineering (SANER). IEEE, 2020: 344-354.
[74]Liu C, GaoC, Xia X, et al. On the Replicability and Reproducibility of Deep Learning in Software Engineering[J]. arXiv preprint arXiv: 2006. 14244, 2020.
 

上一篇:SDN云网平台的服务质量模型研究
下一篇:基于Labview监控的远程无线多参数水质监测系统设计