首页>>人工智能->人工智能综述前言怎么写(人工智能的综述)

人工智能综述前言怎么写(人工智能的综述)

时间:2023-12-02 本站 点击:0

导读:今天首席CTO笔记来给各位分享关于人工智能综述前言怎么写的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

综述怎么写 范文?

论文的综述一般分为四个部分,以下就是一些写论文综述的一些要求:

1、前言:论文的综述也是需要写前言的,前言需要写出写作的目的以及介绍有关的概念和综述的一写范围等等,一般需要些200-300字左右。

2、主体:主体部分也就是论文综述的正文部分,这个部分需要写2500字左右,这个部分的写法不一,但是要写出自己参考的文献的归纳与总结、阐明一些历史背景和研究现状以及评述一些问题。

3、总结:这个部分一般需要写200-300字,这个部分需要写出对主体部分的一些总结、对主体部分的一些评价然后在提出接了,这里需要有自己的观点和一些个人见解。

4、参考文献:这个部分就是需要将自己所参考的一些文献一一列举出来,通常会被要求不低于20篇文献。

注意。

通常论文的综述是不需要进行查重的,但是具体的要求还是要看学校是否规定要查重论文的综述部分。而且论文的综述一般是以附件的形式附在论文的最后的,如果要求查重的话,直接将其上传至查重系统查重就可以了。就算是需要查重,这个部分的查重率是不会计入最终的论文查重结果里面的。

综述 | 人工智能在胃肠疾病和肝病中的应用

Catherine Le Berre 等

摘要 :自2010年以来,人工智能(A I)在医学上的应用取得了实质性进展。人工智能在胃肠病学中的应用包括内镜下病变分析,癌症检测,分析无线胶囊内镜检查中的炎性病变或消化道出血。人工智能还被用于评估肝纤维化,区分胰腺癌患者与胰腺炎患者。人工智能也可以根据多组学数据确定病人的预后或预测他们对治疗的反应。本文综述了人工智能帮助医生做出诊断或确定预后的方法,并讨论其局限性,了解在卫生当局批准人工智能技术之前需要进一步的随机对照研究。

关键词 :深度学习;机器学习;神经网络;消化系统

人工智能没有一个单一的定义,人工智能的概念包含了执行与我们人类智能相关联的功能的程序,比如学习和探索解决问题[1,2]。人工智能、机器学习和深度学习是概念上相互交叉的学科(见图1)。机器学习是一个包括了计算机科学和统计学的广阔学科,机器学习程序重复迭代以应对提高特定任务的性能,产生了分析数据和学习描述和预测模型的算法。供训练的数据大多以表格形式组织,其中对象或个人为行,而变量,无论是数值型还是分类型都是列。机器学习大致可分为监督方法和无监督方法,无监督学习的目的是在不掌握群体的数量或特性的先验知识的前提下,根据数据的共性识别群体。有监督学习在训练数据包含每一个对象的输入—输出对的表征的使用。输入包含个体的特征描述,输出包含要预测的感兴趣的结果,要么是分类任务的类,要么是回归任务的数值。有监督的机器学习算法学习这种输入和输出对的映射关系,在新的输出出现时,自动预测它对应的输出[3]。

人工神经网络(ANN)是受大脑神经解剖学启发的监督ML模型。每个神经元都是一个计算单元,所有神经元相互连接,建立整个网络。信号从第一层(输入)传到至最后一层(输出),可能经过了多个隐含层(见图2)。训练神经网络的过程包括将数据划分为一个训练集,该训练集有助于定义网络的体系结构,并找出节点之间的各种权重,然后是一个测试集,用于评估神经网络预测所需输出的能力。在训练过程中,神经网络内部神经元之间的连接权重被不断优化。对更好性能的不断追求导致了复杂的深度神经网络的诞生[4]。

大多数研究使用1个数据集训练机器学习过程,另一个独立数据集测试其性能。一些研究使用常见的验证方法,例如留一法交叉验证[8]。为增加训练数据,一些研究采用了随即裁剪、调整大小、平移、沿任一轴翻转的数据增强方法。数据集包括了阴性和阳性图像的结果。

目前已经有53项研究使用了AI来检测恶性和癌前肠道病变(表1)。从方法学上看,其中大部分(48项)集中在内镜上,3项研究使用了提取自电子病历的临床和生物学数据(主要包括人口统计数据、心血管疾病、用药情况、消化症状和血液计数情况),1项研究基于血清肿瘤标志物,1项使用肠道微生物群数据。从部位上看,其中,27项研究致力于提高结直肠息肉或癌症的诊断准确性[12-38].19项研究聚焦于诊断上消化道癌前或恶性病变[39-57]。只有4项研究局限于小肠研究[58-61]。3项研究关注了整个消化道[62-64]。从验证方法上看,其中,24项研究采用特殊的验证方法,主要是K折交叉验证。对于以内镜为重点的研究,训练和测试数据集的大小在不同的研究中差异很大。各项研究的性能表现也是差异巨大的(个人认为主要取决于数据集),但大多数算法的精度达到80%以上。

两项已发表的随机对照实验比较了智能与非智能内镜的性能。第一项研究测试了一种实时深度学习系统(WISENSE)的性能,监测食管胃十二指肠镜检查(EGD)中的盲点。一共324名患者被随机分配到有或者没有WISENSE系统的EGD中。在WISENSE组中,准确度达到了90.4%,其盲点率明显比对照组低(5.9% vs 22.5%)[65]。第二项研究探讨了基于DL的自动息肉检测系统在结肠镜检查中的作用,一共1058名患者被随机分配到有或者没有智能辅助系统的诊断性结肠镜检查中。人工智能系统将腺瘤检出率从20.3%显著提高到29.1%,平均每个病人检出的腺瘤数目从0.31增加到0.53[66]。这些结果表明,人工智能系统可用于提高内镜对胃肠道癌前病变的诊断价值。

除了提高诊断准确性外,人工智能还可以帮助医生确定消化道肿瘤患者的预后。一个基于1219例结直肠癌患者的数据集建立的神经网络与传统的COX回归模型相比,提供了更精确的生存时间和影响因素的确定[67],并可用于确定患者远处转移的风险[68]。采用人工神经网络模型对452例胃癌患者进行评估,并以大约90%的准确率确定生存时间[69]。在一项对117例II A期结肠癌根治术后患者的研究中,一种基于神经网络的评分系统,根据肿瘤的分子特征,将肿瘤术后患者分为高、中、低危三组,三组患者十年总体生存率和无病生存率差异显著[70]。深度学习预测局部晚期直肠癌患者对新辅助化疗有完全反应的准确率达80%,这项技术可能被用来识别最有可能从保守治疗或根治性切除中受益的患者[71]。另外,一个基于DL的模型可以根据临床、病理数据及治疗方案,预测1190例胃癌患者5年的生存期。该系统的AUC值为0.92,并确定了肿瘤的分子特征与最佳辅助治疗之间的关系[72]。

AI已经被用于识别炎症性肠病(IBDs)(N=6)[73-78],溃疡(N=6)[79-84],脂泻病(N=5)[85-89],淋巴管扩张(N=1)[90],和钩虫病(N=1)[91],两项研究评估了炎性病变患者的内镜检查结果[92,93]。两项研究使用电子病历来确定患者患腹腔疾病的风险,1项研究使用遗传因素来确定患者患IBD的风险。三分之二(21项中的14项)的研究使用K折交叉验证,以避免数据的过度拟合,这21项中有12项研究的患者的患者准确率约为90%。

许多研究已经验证了AI预测IBD患者治疗反应的能力。Waljee等人利用年龄和实验室数据研发了一种机器学习方法,这种方法的成本较低,且比6-硫鸟嘌呤核苷酸(6-TGN)代谢物测定更准确地预测患者对噻嘌呤的临床反应(AUC 0.86 vs 0.60)[94]。然后,他们根据生物标志物、影像学数据和内镜检查结果,改进了之前的ML模型,以预测接受硫嘌呤治疗的患者的客观缓解。该ML模型优于6-TGN水平的测量(AUC 0.79 vs 0.49)[95]。一种ML模型分析了韦多利单抗治疗溃疡性结肠炎患者的三期临床试验数据,与第6周AUC为0.71的粪便钙保护水平相比。AI能够预测哪些患者将在第52周时在无皮质类固醇的前提下实现内镜下缓解,预测性能的AUC值为0.73。因此,韦多利单抗在前6周的益处不明显时,该算法可用于选择患者继续使用韦多利单抗[96]。另外,还有一种人工智能算法,它将微生物群的数据与临床数据结合起来,确定了IBD患者的临床反应,其预测患者抗整合治疗的AUC为0.78[97]。一种神经网络鉴定溃疡性结肠炎患者在细胞置换治疗后,需要进一步手术的敏感性和特异性分别达到了0.96和0.87[98]。

预测IBD发病或进展的人工智能系统也正在研发中。一种分析克罗恩病患者早期活检图像的神经网络在识别疾病进展的准确性达到了83.3%,预测患者需要手术的准确度达到了86.0%[99]。Waljee等人建立一种ML方法分析电子病历数据,预测6个月内IBD相关的住院和门诊病人使用类固醇的AUC值达到了0.87[100]。人工神经网络预测IBD患者临床复发的频率,具有较高的准确性[101]。

十二项研究已经被用于验证AI在无限胶囊内镜图像中检测小肠出血的能力(表3)[55,102-112]。12项中的8项研究采用特殊的验证技术,主要是K折交叉验证。在这些研究中,9项研究识别小肠出血的准确率超过了90%。

对于急性上消化道出血或下消化道出血的患者,可通过内镜检查轻松确定出血原因,然而,很大一部分病人有反复出血的情况,这需要重复内镜检查和治疗。因此,ML模型被开发以确定有复发性出血风险的患者和最有可能需要治疗的患者,并估计死亡率。这些模型使用临床和/或生物数据,并以大约90%的准确率识别这些患者[113-117]。一种建立在22854名胃溃疡患者的回顾性分析和1265名用于验证的患者基础上的ML模型,能够根据患者的年龄、血红蛋白水平、胃溃疡、胃肠道疾病、恶性肿瘤和感染来确定复发性溃疡出血的患者。模型确定1年内复发性溃疡出血的患者,AUC为0.78,准确率为84.3%。

22项研究测试了AI在辅助胰腺疾病或肝脏疾病诊疗中的能力(表4)。其中关于胰腺癌的AI系统有6项,其中5项研究基于内镜超声[118-122]、1项基于血清标记物[123]。这些研究识别胰腺癌患者的AUC约为90%。16项关于肝脏的研究中7项研究旨在检测与病毒性肝炎相关的纤维化[124-130],6项开发了人工智能策略检测非酒精性脂肪肝[131-136]。2项研究识别食管静脉曲张[137,138]。1项评估患者不明原因的慢性肝病[139]。其中,13项研究使用电子病历和、或生物特征的数据建立算法,3项研究使用弹性成像数据。除2项外,所有研究都使用了特定的验证技术 ,主要是k-折叠交叉验证。这些模型的精度约为80%。

除了提高诊断准确性外,还需要确定病人预后和预测疾病进展的AI方法。Pearce等人建立了一个ML模型,根据APACHE II评分和C反应蛋白水平来预测急性胰腺炎患者的严重程度。他们模型的AUC值达到了0.82,敏感度87%,特异度71%[140]。Hong等人根据急性胰腺炎患者的年龄、红细胞压积、血清葡萄糖和钙水平以及尿素氮水平,创建了一个ANN来评估患者的持续性器官衰竭,准确率达96.2%[141]。Jovanovic等人开发了一种ANN模型,根据临床、实验室和经皮超声检查结果,识别胆总管结石病患者进行治疗性内镜逆行胰胆管造影术的需求,其AUC为0.88[142]。

Banerjee等人开发了一种基于临床和实验室数据的人工神经网络,以90%的准确性确定肝硬化患者将在1年内死亡的可能性,该模型可用于确定肝移植的最佳候选者[143]。Konerman等人基于临床、实验室和病理组织学数据建立了一个机器学习模型,识别慢性丙型病毒感染肝炎患者疾病进展的最高风险,以及肝脏相关性结果(肝相关死亡、肝失代偿、肝细胞癌、肝移植或Child-Pugh评分增加到7分),该模型在1007名患者的验证集中AUC值达到了0.708。Khosravi等人建立了一种神经网络来预测1168名肝移植患者的生存期。该模型可估计1-5年的生存概率,AUC为86.4%,而Cox比例风险回归模型为80.7%[146]。研究人员还利用人工神经网络将肝脏捐献者与接受者配对,从而提供强有力的决策技术[147]。此外,ML模型可以帮助预测对治疗的反应。Takayama等人建立了一种ANN预测慢性丙型病毒感染肝炎患者对聚乙二醇化干扰素a-2b联合利巴韦林治疗的反应,预测的敏感度达到了82%,特异度达到了88%。

人工智能将成为胃肠病和肝病学家诊断患者、选择治疗手段和预测预后的重要手段。许多方法都是在这些目标下发展起来的,并展示出不同的性能水准。由于性能指标的差异,很难比较这些研究的结果。人工智能似乎在内镜下特别有价值,它可以增加对恶性和癌前病变、炎症病变、小肠出血和胰胆紊乱的检测。在肝脏学中,人工智能技术可以用来确定患者肝纤维化的风险,并允许一些患者避免肝活检。

我们的综述只涵盖了PubMed中列出的文章,并且可能错过了计算机科学和医学图像分析期刊上的一些出版物。尽管如此,在过去的20年里,人工智能已经成为胃肠病学和肝脏学研究的重要组成部分。尽管本文的综述的重点是辅助诊断和预后,但是其他研究方向的人工智能也正在被探索,例如基于机器学习的内镜质控评估(盲肠标志,机器学习评估检测结肠镜的后续建议),AI在胃肠道领域的应用也在不断被扩大。

值得注意的是,目前的AI技术受的高质量数据集的缺乏所限制。大多数用于开发ML算法的证据来自临床前研究,目前在临床实践中没有应用。此外,DL算法被认为是黑箱模型,黑箱模型很难理解决策过程,阻止医生发现潜在的混杂因素。考虑道德挑战也很重要,人工智能不知道病人的偏好或法律责任。如果发生内镜误诊,谁有责任-内镜医生、程序员或制造商?此外,在确定与病毒性肝炎有关的肝脏纤维化风险时,种族歧视等固有偏置容易被纳入人工智能算法,特别是在肝脏学领域。在开发人工智能模型时,重要的是要考虑这些因素,并在一系列人群中验证模型。医学总是有内在的不确定性,因此完美的预测是不可能的,一些与人工智能相关的研究空白在胃肠学和肝脏学领域仍有待研究(表5)。

在胃肠病学和肝病学方面,人工智能的发展是没有回头路可走的,未来的影响是巨大的。使用人工智能可以增加在发展中地区的人们获得护理的机会,特别是在评估患者患病毒性肝炎或肠道寄生虫病的风险方面。智能手机可以使用人工智能技术远程监测患者的健康,IBD患者居家测量粪便钙保护素的方法已经被建立[149]。人工智能还可以通过从大型患者数据集中集成分子、遗传和临床数据来识别新的治疗靶点。然而,人工智能不会完全取代医生,人工智能仍将辅助医生工作。虽然机器可以做出准确的预测,但最终,医护人员必须根据病人的喜好、环境和道德为他们的病人做出决定。

求一篇 人工智能行为识别的论文综述:

人工智能(Artificial Intelligence) ,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。

人工智能发展综述

近十多年来,随着算法与控制技术的不断提高,人工智能正在以爆发式的速度蓬勃发展。并且,随着人机交互的优化、大数据的支持、模式识别技术的提升,人工智能正逐渐的走入我们的生活。本文主要阐述了人工智能的发展历史、发展近况、发展前景以及应用领域。

人工智能(Artificial Intelligence)简称AI,是麦卡赛等人在1956年的一场会议时提出的概念。

近几年,在“人机大战”的影响下,人工智能的话题十分的火热,特别是在“阿尔法狗”(AlphaGo)战胜李世石后,人们一直在讨论人是否能“战胜”自己制造的有着大数据支持的“人工智能”,而在各种科幻电影的渲染中,人工智能的伦理性、哲学性的问题也随之加重。

人工智能是一个极其复杂又令人激动的事物,人们需要去了解真正的人工智能,因此本文将会对什么是人工智能以及人工智能的发展历程、未来前景和应用领域等方面进行详细的阐述。

人们总希望使计算机或者机器能够像人一样思考、像人一样行动、合理地思考、合理地行动,并帮助人们解决现实中实际的问题。而要达到以上的功能,则需要计算机(机器人或者机器)具有以下的能力:

自然语言处理(natural language processing)

知识表示(knowledge representation)

自动推理(automated reasoning)

机器学习(machine learning)

计算机视觉(computer vision)

机器人学(robotics)

这6个领域,构成了人工智能的绝大多数内容。人工智能之父阿兰·图灵(Alan Turing)在1950年还提出了一种图灵测试(Turing Test),旨在为计算机的智能性提供一个令人满意的可操作性定义。

关于图灵测试,是指测试者在与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。

图灵测试是在60多年前就已经提出来了,但是在现在依然适用,然而我们现在的发展其实远远落后于当年图灵的预测。

在2014年6月8日,由一个俄罗斯团队开发的一个模拟人类说话的脚本——尤金·古斯特曼(Eugene Goostman)成为了首个通过图灵测试的“计算机”,它成功的使人们相信了它是一个13岁的小男孩,该事件成为了人工智能发展的一个里程碑。

在2015年,《Science》杂志报道称,人工智能终于能像人类一样学习,并通过了图灵测试。一个AI系统能够迅速学会写陌生文字,同时还能识别出非本质特征,这是人工智能发展的一大进步。

①1943-1955年人工智能的孕育期

人工智能的最早工作是Warren McCulloch和Walter Pitts完成的,他们利用了基础生理学和脑神经元的功能、罗素和怀特海德的对命题逻辑的形式分析、图灵的理论,他们提出了一种神经元模型并且将每个神经元叙述为“开”和“关”。人工智能之父图灵在《计算机与智能》中,提出了图灵测试、机器学习、遗传算法等各种概念,奠定了人工智能的基础。

②1956年人工智能的诞生

1956年的夏季,以麦卡锡、明斯基、香农、罗切斯特为首的一批科学家,在达特茅斯组织组织了一场两个月的研讨会,在这场会议上,研究了用机器研究智能的一系列问题,并首次提出了“人工智能”这一概念,人工智能至此诞生。

③1952-1969年人工智能的期望期

此时,由于各种技术的限制,当权者人为“机器永远不能做X”,麦卡锡把这段时期称作“瞧,妈,连手都没有!”的时代。

后来在IBM公司,罗切斯特和他的同事们制作了一些最初的人工智能程序,它能够帮助学生们许多学生证明一些棘手的定理。

1958年,麦卡锡发表了“Program with Common Sense”的论文,文中他描述了“Advice Taker”,这个假想的程序可以被看作第一个人工智能的系统。

④1966-1973人工智能发展的困难期

这个时期,在人工智能发展时主要遇到了几个大的困难。

第一种困难来源于大多数早期程序对其主题一无所知;

第二种困难是人工智能试图求解的许多问题的难解性。

第三种困难是来源于用来产生智能行为的基本结构的某些根本局限。

⑤1980年人工智能成为产业

此时期,第一个商用的专家系统开始在DEC公司运转,它帮助新计算机系统配置订单。1981年,日本宣布了“第五代计算机”计划,随后美国组建了微电子和计算机技术公司作为保持竞争力的集团。随之而来的是几百家公司开始研发“专家系统”、“视觉系统”、“机器人与服务”这些目标的软硬件开发,一个被称为“人工智能的冬天”的时期到来了,很多公司开始因为无法实现当初的设想而开始倒闭。

⑥1986年以后

1986年,神经网络回归。

1987年,人工智能开始采用科学的方法,基于“隐马尔可夫模型”的方法开始主导这个领域。

1995年,智能Agent出现。

2001年,大数据成为可用性。

在1997年时,IBM公司的超级计算机“深蓝”战胜了堪称国际象棋棋坛神话的前俄罗斯棋手Garry Kasparov而震惊了世界。

在2016年时,Google旗下的DeepMind公司研发的阿尔法围棋(AlphaGo)以4:1的战绩战胜了围棋世界冠军、职业九段棋手李世石,从而又一次引发了关于人工智能的热议,随后在2017年5月的中国乌镇围棋峰会上以3:0的战绩又战胜了世界排名第一的柯洁。

2017年1月6日,百度的人工智能机器人“小度”在最强大脑的舞台上人脸识别的项目中以3:2的成绩战胜了人类“最强大脑”王峰。1月13日,小度与“听音神童”孙亦廷在语音识别项目中以2:2的成绩战平。随后又在1月21日又一次在人脸识别项目中以2:0的成绩战胜了“水哥”王昱珩,更在最强大脑的收官之战中战胜了人类代表队的黄政与Alex。

2016年9月1日,百度李彦宏发布了“百度大脑”计划,利用计算机技术模拟人脑,已经可以做到孩子的智力水平。李彦宏阐述了百度大脑在语音、图像、自然语言处理和用户画像领域的前沿进展。目前,百度大脑语音合成日请求量2.5亿,语音识别率达97%。

“深度学习”是百度大脑的主要算法,在图像处理方面,百度已经成为了全世界的最领先的公司之一。

百度大脑的四大功能分别是:语音、图像,自然语言处理和用户画像。

语音是指具有语音识别能力与语音合成能力,图像主要是指计算机视觉,自然语言处理除了需要计算机有认知能力之外还需要具备推理能力,用户画像是建立在一系列真实数据之上的目标用户模型。

工业4.0是由德国提出来的十大未来项目之一,旨在提升制造业的智能化水平,建立具有适应性、资源效率及基因工程学的智慧工厂。

工业4.0已经进入中德合作新时代,有明确提出工业生产的数字化就是“工业4.0”对于未来中德经济发展具有重大意义。

工业4.0项目主要分为三大主题:智能工厂、智能生产、智能物流。

它面临的挑战有:缺乏足够的技能来加快第四次工业革命的进程、企业的IT部门有冗余的威胁、利益相关者普遍不愿意改变。

但是随着AI的发展,工业4.0的推进速度将会大大推快。

人工智能可以渗透到各行各业,领域很多,例如:

①无人驾驶:它集自动控制、体系结构、人工智能、视觉计算等众多技术于一体,是计算机科学、模式识别和智能控制技术高度发展的产物世界上最先进的无人驾驶汽车已经测试行驶近五十万公里,其中最后八万公里是在没有任何人为安全干预措施下完成的。英国政府也在资助运输研究实验室(TRL),它将在伦敦测试无人驾驶投递车能否成功用于投递包裹和其他货物,使用无人驾驶投递车辆将成为在格林威治实施的众多项目之一。

②语音识别:该技术可以使让机器知道你在说什么并且做出相应的处理,1952年贝尔研究所研制出了第一个能识别10个英文数字发音的系统。在国外的应用中,苹果公司的siri一直处于领先状态,在国内,科大讯飞在这方面的发展尤为迅速。

③自主规划与调整:NASA的远程Agent程序未第一个船载自主规划程序,用于控制航天器的操作调度。

④博弈:人机博弈一直是最近非常火热的话题,深度学习与大数据的支持,成为了机器“战胜”人脑的主要方式。

⑤垃圾信息过滤:学习算法可以将上十亿的信息分类成垃圾信息,可以为接收者节省很多时间。

⑥机器人技术:机器人技术可以使机器人代替人类从事某些繁琐或者危险的工作,在战争中,可以运送危险物品、炸弹拆除等。

⑦机器翻译:机器翻译可以将语言转化成你需要的语言,比如现在的百度翻译、谷歌翻译都可以做的很好,讯飞也开发了实时翻译的功能。

⑧智能家居:在智能家居领域,AI或许可以帮上很大的忙,比如模式识别,可以应用在很多家居上使其智能化,提高人机交互感,智能机器人也可以在帮人们做一些繁琐的家务等。

专家系统是一个智能计算机程序系统,其内部含有大量的某个领域专家水平的知识与经验,能够利用人类专家的知识和解决问题的方法来处理该领域问题。也就是说,专家系统是一个具有大量的专门知识与经验的程序系统,它应用人工智能技术和计算机技术,根据某领域一个或多个专家提供的知识和经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题,简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统。

知识库是专家系统质量是否优越的关键所在,即知识库中知识的质量和数量决定着专家系统的质量水平。一般来说,专家系统中的知识库与专家系统程序是相互独立的,用户可以通过改变、完善知识库中的知识内容来提高专家系统的性能。

机器学习(Machine Learning, ML)是一门涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等的多领域交叉学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是人工智能的核心,是使计算机具有智能的根本途径,也是深度学习的基础。

机器学习领域的研究工作主要围绕以下三个方面进行:

(1)面向任务的研究

研究和分析改进一组预定任务的执行性能的学习系统。

(2)认知模型

研究人类学习过程并进行计算机模拟。

(3)理论分析

从理论上探索各种可能的学习方法和独立于应用领域的算法

机器学习是继专家系统之后人工智能应用的又一重要研究领域,也是人工智能和神经计算的核心研究课题之一。但是现有的计算机系统和人工智能系统没有什么学习能力,至多也只有非常有限的学习能力,因而不能满足科技和生产提出的新要求。

遗传算法(Genetic Algorithm)是模拟达尔文生物进化论的自然选择和遗传学机理的生物进化过程的计算模型,是一种通过模拟自然进化过程搜索最优解的方法。它借鉴生物界的进化规律(适者生存,优胜劣汰遗传机制)进行随机化搜索,它是由美国的J.Holland教授1975年首先提出,其主要特点是直接对结构对象进行操作,不存在求导和函数连续性的限定;具有内在的隐并行性和更好的全局寻优能力;采用概率化的寻优方法,能自动获取和指导优化的搜索空间,自适应地调整搜索方向,不需要确定的规则。遗传算法的这些性质,已被人们广泛地应用于组合优化、机器学习、信号处理、自适应控制和人工生命等领域,它是现代有关智能计算中的关键技术。

Deep Learning即深度学习,深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。是机器学习中一种基于对数据进行表征学习的方法。

他的基本思想是:假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为:I =S1=S2=…..=Sn

= O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失,设处理a信息得到b,再对b处理得到c,那么可以证明:a和c的互信息不会超过a和b的互信息。这表明信息处理不会增加信息,大部分处理会丢失信息。保持了不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示。Deep Learning需要自动地学习特征,假设我们有一堆输入I(如一堆图像或者文本),假设设计了一个系统S(有n层),通过调整系统中参数,使得它的输出仍然是输入I,那么就可以自动地获取得到输入I的一系列层次特征,即S1,…, Sn。对于深度学习来说,其思想就是对堆叠多个层,也就是说这一层的输出作为下一层的输入。通过这种方式,就可以实现对输入信息进行分级表达了。

深度学习的主要技术有:线性代数、概率和信息论;欠拟合、过拟合、正则化;最大似然估计和贝叶斯统计;随机梯度下降;监督学习和无监督学习深度前馈网络、代价函数和反向传播;正则化、稀疏编码和dropout;自适应学习算法;卷积神经网络;循环神经网络;递归神经网络;深度神经网络和深度堆叠网络;

LSTM长短时记忆;主成分分析;正则自动编码器;表征学习;蒙特卡洛;受限波兹曼机;深度置信网络;softmax回归、决策树和聚类算法;KNN和SVM;

生成对抗网络和有向生成网络;机器视觉和图像识别;自然语言处理;语音识别和机器翻译;有限马尔科夫;动态规划;梯度策略算法;增强学习(Q-learning)。

随着人工智能的发展,人工智能将会逐渐走入我们的生活、学习、工作中,其实人工智能已经早就渗透到了我们的生活中,小到我们手机里的计算机,Siri,语音搜索,人脸识别等等,大到无人驾驶汽车,航空卫星。在未来,AI极大可能性的去解放人类,他会替代人类做绝大多数人类能做的事情,正如刘慈欣所说:人工智能的发展,它开始可能会代替一部分人的工作,到最后的话,很可能他把90%甚至更高的人类的工作全部代替。吴恩达也表明,人工智能的发展非常快,我们可以用语音讲话跟电脑用语音交互,会跟真人讲话一样自然,这会完全改变我们跟机器交互的办法。自动驾驶对人也有非常大的价值,我们的社会有很多不同的领域,比如说医疗、教育、金融,都会可以用技术来完全改变。

[1] Russell,S.J.Norvig,P.人工智能:一种现代的方法(第3版)北京:清华大学出版社,2013(2016.12重印)

[2]库兹韦尔,人工智能的未来杭州:浙江人民出版社,2016.3

[3]苏楠.人工智能的发展现状与未来展望[J].中小企业管理与科技(上旬刊),2017,(04):107-108.

[4]王超.从AlphaGo的胜利看人工智能的发展历程与应用前景[J].中国新技术新产品,2017,(04):125-126.

[5]朱巍,陈慧慧,田思媛,王红武.人工智能:从科学梦到新蓝海——人工智能产业发展分析及对策[J].科技进步与对策,2016,(21):66-70.

[6]王江涛.浅析人工智能的发展及其应用[J].电子技术与软件工程,2015,(05):264.

[7]杨焱.人工智能技术的发展趋势研究[J].信息与电脑(理论版),2012,(08):151-152.

[8]张妮,徐文尚,王文文.人工智能技术发展及应用研究综述[J].煤矿机械,2009,(02):4-7.

[9]王永忠.人工智能技术在智能建筑中的应用研究[J].科技信息,2009,(03):343+342.

[10]李德毅,肖俐平.网络时代的人工智能[J]中文信息学报,2008,(02):3-9.

[11]李红霞.人工智能的发展综述[J].甘肃科技纵横,2007,(05):17-18

[12]孙科.基于Spark的机器学习应用框架研究与实现[D].上海交通大学,2015.

[13]朱军,胡文波.贝叶斯机器学习前沿进展综述[J].计算机研究与发展,2015,(01):16-26.

[14]何清,李宁,罗文娟,史忠植.大数据下的机器学习算法综述[J].模式识别与人工智能,2014,(04):327-336.

[15]郭亚宁,冯莎莎.机器学习理论研究[J].中国科技信息,2010,(14):208-209+214.

[16]陈凯,朱钰.机器学习及其相关算法综述[J].统计与信息论坛,2007,(05):105-112.

[17]闫友彪,陈元琰.机器学习的主要策略综述[J].计算机应用研究,2004,(07):4-10+13.

[18]张建明,詹智财,成科扬,詹永照.深度学习的研究与发展[J].江苏大学学报(自然科学版),2015,(02):191-200.

[19]尹宝才,王文通,王立春.深度学习研究综述[J].北京工业大学学报,2015,(01):48-59.

[20]刘建伟,刘媛,罗雄麟.深度学习研究进展[J].计算机应用研究,2014,(07):1921-1930+1942

[21]马永杰,云文霞.遗传算法研究进展[J].计算机应用研究,2012,(04):1201-1206+1210.

[22]曹道友.基于改进遗传算法的应用研究[D].安徽大学,2010

前言应该怎么写呢?

前言应该:

1、开篇要讲清楚,直奔主题,避免走弯路,避免对历史渊源和研究过程说长道短。

2、简洁明了,突出重点。不要过多讲述大家都知道的内容以及教科书中的常识内容。可以适当引用前人的一些研究成果和基本原理,只要在文章中以参考文献的形式加以标注就行。可以在引言中阐述自己的观点,但要注意意思清晰,语言简单易懂。

3、回顾发展史的内容必须是重点内容,要与文章标题紧扣,有衔接性。主要围绕标题去介绍背景,用几句话表明即可。在提示所用的方法时,不用写出详细方式、结果,可以适当引用过去的文章,但不要去开展讨论。

引用文章时不要去长篇罗列,不然会把前言写成该项研究的历史发展,更有可能会写成文献的小综述。切记不要去复述那些教科书上的常识,或是本领域研究人员所共知的常识性内容。

4、依据科学,实事求是。在前言中,对论文价值的评价是实事求是的,用词要科学,不要华而不实。对本文的自我评价最好不要使用如:‘本研究首次报道、本研究国内首创、填补了该项研究空白、极具学术价值、’等这样的标签,进行论文评价。

5、前言不是摘要,不要写成与摘要内容一致。不要使用套话如“才疏学浅、水平有限、恳请指正”等之类的语言。前言最好是一段话就概括,不要分段最好,也不要进行插图、列表公式推导与证明。

结语:以上就是首席CTO笔记为大家介绍的关于人工智能综述前言怎么写的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/9030.html