BMI | “深度学习”专题讲座
16427
post-template-default,single,single-post,postid-16427,single-format-standard,ajax_fade,page_not_loaded,,side_area_uncovered_from_content,qode-child-theme-ver-1.0.0,qode-theme-ver-11.0,qode-theme-bridge,wpb-js-composer js-comp-ver-5.1.1,vc_responsive
 

“深度学习”专题讲座

“深度学习”专题讲座

2017年9月8日下午1:30-6:00pm,研究室在我院F栋14楼会议室组织“深度学习”专题讲座。本专题讲座由前瞻中心曲强副研究员主持,中国科学院计算所副研究员、先进院客座教授王树徽老师主讲。参加本次授课的有我院数字所的部分学生和前瞻中心移动大数据研究室的所有师生。
王树徽老师首先从“人工智能”的背景讲起,详细的介绍了人工智能的诞生和发展历史,包括古代的自动人偶、近代的形式推理、早期的神经网络和游戏AI。其中,王树徽老师特别介绍了人工智能在近现代的兴衰史,50年代后期到60年代涌现了大批成功的AI程序和新的研究方向形成了人工智能的黄金年代;到了70年代,AI开始遭遇批评,随之而来的还有资金上的困难,造成了人工智能的第一次低谷;在80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点;80年代末到90年代初,AI遭遇了一系列财政问题,进入了第二次低谷;90年代初至今,人工智能取得了一些里程碑似的成果,例如在1997年,IBM的深蓝战胜国际象棋世界冠军卡斯帕罗夫,2009年,洛桑联邦理工学院发起的蓝脑计划声称已经成功地模拟了部分鼠脑,以及近两年AlphaGo在围棋大战中战胜顶尖棋手。
接下来,王树徽老师介绍了深度学习的流派和深度学习的应用,通过图像和流程图形象的描绘了应用的案例以及深度学习的图像检索流程、不同的学习方法。另外,王树徽老师还对深度学习五大平台进行了相关的介绍,对不同平台的优缺点进行了详细的对比:caffe第一个主流的工业级深度学习工具,具有出色的卷积神经网络实现,但是由于一些遗留的架构问题,不够灵活且对递归网络和语言建模的支持很差;TensorFlow是Google开源的其第二代深度学习技术,支持快速开发,但是速度慢,内存占用较大;mxnet它注重灵活性和效率,文档也非常的详细,同时强调提高内存使用的效率;Torch有较好的灵活性和速度,接口为lua语言,需要一点时间来学习;Theano 最大特点是非常的灵活,适合做学术研究的实验,且对递归网络和语言建模有较好的支持,缺点是速度较慢。
讲座末尾,王树徽老师大致的介绍了深度学习中的卷积神经网络,讲解了AlexNet、VGG、GoogleNet、ResNet的异同,并对LeNet的网络结构、实现代码进行了说明。随后进入互动讨论环节,现场师生积极提出自己的疑问,对此王树徽老师一一作了详尽的解答。
通过王树徽老师的精彩讲解,同学们在轻松愉快的氛围中学习到了丰富的人工智能技术方面的知识,同学们纷纷表示受益匪浅。

讲座现场

王树徽老师介绍深度学习

王树徽老师与学生深入交流

No Comments

Sorry, the comment form is closed at this time.