深度学习应用与实战
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

前言

人工智能的概念在1956年达特茅斯学术会议中首次被提出。经过半个多世纪的发展,人工智能从简单的计算智能过渡到感知智能,一直发展到现在的认知智能。于是,让计算机“听懂”或“看懂”人的心声或意图,受到了无数优秀学者和科研人员的关注,这背后的技术最终发展为计算机科学及人工智能领域的一个重要分支——深度学习。

如今,深度学习已经取得了长足的进展,并且它已经渗透到人们生活的方方面面。人们平时常用的人脸识别、车牌识别、自动驾驶等功能,都是以深度学习为核心的人工智能产品。同时,随着计算机及相关技术的发展和算力的提高,人工智能已经进入深度学习时代。越来越多的深度学习技术趋于成熟并显现出巨大的商业价值。

·图像分类:图像分类是指给定一张图像或一段视频判断图像或视频中包含什么类别的目标。目前,图像分类在很多领域有着广泛的应用,包括安防领域的人脸识别和智能视频分析等、交通领域的交通场景识别等。

·目标检测:目标检测的任务是找出图像中指定的目标(物体),确定它们的类别和位置,是计算机视觉领域的核心研究问题之一。

·文本生成:文本生成是指系统接收非语言形式的信息作为输入,生成可读写的文字。目前,文本生成的应用有文本摘要、古诗词生成和文本复述等。

随着神经网络和深度学习的不断发展,国内外深度学习应用型人才的缺口也逐年增大。究其原因,一方面,近几年各行业对深度学习领域人才的需求快速增加;另一方面,深度学习是人工智能的核心技术,涉及高等数学、线性代数、信息学、生物学、计算机科学等众多学科,因此其入门门槛较高,需要掌握人工智能相关的多种理论基础和模型算法。市面上大多数与深度学习相关的书籍注重理论知识的讲解,而讲解深度学习案例的书籍相对较少。虽然理论知识是深度学习必不可少的基础,但案例实战是帮助读者更好地理解理论知识的最佳方式。为此,达内时代科技集团将以往与深度学习相关的项目经验、产品应用和技术知识整理成册,通过本书来总结和分享深度学习的实践成果。编著者衷心希望本书能为读者开启深度学习之门!

本书内容

本书围绕神经网络的基本概念(单层神经网络、多层神经网络),深度学习的基础技术(卷积神经网络、循环神经网络)、核心技术(目标检测、文本生成),编码器-解码器模型等内容进行讲解,并详细介绍了多元时间序列神经网络、注意力机制、Transformer模型等相关技术,最后结合项目案例介绍了生成对抗网络的内容。本书注重理论联系实际,采用大量丰富案例,讲解力求深入浅出,帮助读者快速理解深度学习相关模型和算法的基本原理与关键技术。本书既适合高等职业院校和本科院校的学生学习使用,也适合不同行业的深度学习爱好者阅读。在内容编排上,本书的每章内容都具备一定独立性,可以帮助读者掌握使用机器学习算法和深度学习算法处理同一类问题并独立地解决一类实际问题的能力,建议读者根据自身情况选择性阅读。各章之间循序渐进、形成有机整体,使全书内容不失系统性与完整性。本书分为4个部分。

·第1部分(第1~4章):深度学习基础算法与应用。首先介绍神经网络和深度学习的相关概念。然后介绍多层神经网络的基本原理和具体应用。最后详细介绍卷积神经网络的原理、项目案例实现,以及优化算法与模型管理。

·第2部分(第5~9章):深度学习进阶算法与应用。首先介绍经典的深度卷积神经网络模型。然后介绍ResNet、DenseNet和MobileNet,并结合项目案例完成违规驾驶行为的识别。最后介绍目标检测的基本概念和常见算法及循环神经网络的基本概念和具体应用。

·第3部分(第10~14章):时空数据模型与应用。首先介绍CNN-LSTM混合模型的基本概念和具体应用。然后介绍多元时间序列神经网络和注意力机制,并使用DCRNN和MTGNN实现交通流量预测。最后介绍Transformer的基本结构和具体应用,并结合历史轨迹数据完成车辆行驶轨迹的预测。

·第4部分(第15~16章):生成对抗网络及其应用。首先介绍生成对抗网络的基本概念及其模型的结构和训练过程,并使用 TecoGAN 模型实现视频超分辨率。然后介绍使用检测模型、识别模型对车牌进行检测与识别。

书中理论知识与项目案例的重点和难点部分均采用微视频的方式进行讲解,读者可扫描每章中的二维码观看视频、查看作业与练习的答案。

另外,更多的视频等数字化教学资源及最新动态,读者可以关注以下微信公众号,或添加小书童获取资料与答疑等服务。

致谢

本书是达内时代科技集团人工智能研究院团队通力合作的结果。全书由韩少云、冯华和刁景涛策划、组织并负责统稿,参与本书编写工作的有达内集团及众多院校的老师,他们对相关章节内容的组织与选编做了大量细致的工作,在此对各位编著者的辛勤付出表示由衷的感谢!

感谢电子工业出版社的老师们对本书的重视,他们一丝不苟的工作态度保证了本书的质量。

为读者呈现准确、翔实的内容是编著者的初衷,但由于编著者水平有限,书中难免存在不足之处,敬请专家和读者给予批评指正。

编著者

2023年3月