基于BERT的CNS论文主题演进测度研究文献综述

 2021-10-25 21:30:11

毕业论文课题相关文献综述

文 献 综 述一、 论文研究背景与意义科技论文是反映基础研究和应用研究的创新成果之一,一个国家或地区在国际高水平期刊上发表论文的数量通常可作为评价其基础科学研究水平的指标。

美国《Cell》、英国《Nature》和美国《Science》,简称CNS,是国际公认的三种享有最高学术声誉的期刊,世界各国的研究人员发表在其上的论文往往代表各国研究机构、研究人员的最前沿领域和最顶尖水平。

在目前我国世界一流大学和一流学科建设中,CNS的论文对指导高校提高自主创新能力和学术水平有着重要的应用价值。

随着我国综合国力的不断增长,中国科技界的实力也在不断增强,在我国的科技论文数量发表量跃前列的背景下,国内研究人员凭借研究实力的高水平、创新性成果在这三大期刊发表论文,希望将中国最尖端、最前沿的研究向全世界传达。

目前,我国学者对CNS的研究主要集中在发文量、发文机构、以及核心作者分析。

同时,系统研究CNS论文主题演进的文章也不多。

适时梳理核心期刊不同学科间的发展轨迹、研究重点,明晰核心作者和机构,从文献发文量、关键词频次、关键词聚类、突现词探测等方面,研究CNS论文的研究热点、主题演进情况,为今后的科学研究与实际工作提供借鉴。

为了从海量的论文数据中提取有用的信息,挖掘其潜在的价值,通常需要用到自然语言处理技术,命名实体识别是其中一个重要的组成部分,其主要任务是识别文本中的人名、地名、组织机构名等专有名词,其识别效果对于后续的关系抽取、全局和局部特征的提取等任务有很大影响。

与此同时,深度神经网络在自然语言领域的应用越来越广泛, 利用预训练词向量技术, 可以避免人工提取特征, 直接对原始数据进行处理。

因此,Google的Jacob等提出了基于Transformer的双向编码器表示(Bidirectional Encoder Representation from Transformers,BERT)方法,它是一个深度双向表示预 训练模型,能够更深层次地提取文本的语义信息,在自然语言处理领域具有良好的效果。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。