赠书!这本CNN入门材料《解析卷积神经网络》想不想要? 2019-01-26

机器之心发布

机器之心编辑部


旷视南京研究院院长、周志华高徒魏秀参的著作《解析深度学习:卷积神经网络原理与视觉实践》不久前出版,机器之心将抽送 5 本书作为新年福利~嘻嘻~

作者简介

魏秀参,旷视南京研究院院长,南京大学计算机系机器学习与数据挖掘所(LAMDA)博士,研究方向为计算机视觉和机器学习。曾在国际顶级期刊和会议发表多篇学术论文,并两次获得国际计算机视觉相关竞赛冠亚军。

2017 年 12 月,还在南京大学计算机系机器学习与数据挖掘所(LAMDA)读博的魏秀参开放了这本书的资源。这是一本系统完整的 CNN 入门材料,是面向中文读者的轻量级、实用深度学习工具书,内容侧重深度卷积神经网络的基础知识和实践应用。2018 年 11 月,这本书由电子工业出版社出版,由南京大学周志华教授作序。

作者在前言部分介绍了这本书的主要内容:

本书从实用角度着重解析了深度学习中的一类神经网络模型——卷积神经网络,向读者剖析了卷积神经网络的基本部件与工作机理,更重要的是系统性地介绍了深度卷积神经网络在实践应用方面的细节配置与工程经验。笔者希望本 书「小而精」,避免像某些国外相关书籍一样浅尝辄止的「大而空」。

全书共 14 章,除「绪论」外可分为两个部分:第一部分「基础理论篇」包括 第 1∼4 章,介绍卷积神经网络的基础知识、基本部件、经典结构和模型压缩等基础理论内容;第二部分「实践应用篇」包括第 5∼14 章,介绍深度卷积神经网络自数据准备开始,到模型参数初始化、不同网络部件的选择、网络配置、网络模型训练、不平衡数据处理,最终到模型集成等实践应用技巧和经验。另外,本书基本在每章结束均有对应小结,读者在阅读完每章内容后不妨掩卷回忆,看是否完全掌握此章重点。对卷积神经网络和深度学习感兴趣的读者可 通读全书,做到「理论结合实践」;对希望迅速应用深度卷积神经网络来解决实际问题的读者,也可直接参考第二部分的有关内容,做到「有的放矢」。


图源:http://product.dangdang.com/25576901.html

在我们的体验中,这本书有很多独到的内容,例如综述了卷积网络的压缩算法、介绍了不平衡样本的处理方法等。这些内容可能在特定的综述论文中看到,但像《深度学习》这样的标准教科书并不会提到,因为它们和工程与实践结合地非常紧密。

例如在卷积网络的压缩算法中,这本书介绍了低秩近似、剪枝与稀疏约束、参数量化、二值网络、知识蒸馏和紧凑的网络结构等,这些基础概念对实践有非常重要的作用。如下对整体模型压缩方法做了简要的介绍:

尽管卷积神经网络在诸如计算机视觉、自然语言处理等领域均取得了出类拔萃 的效果,但其动辄过亿的参数数量却使得诸多实际应用(特别是基于嵌入式设 备的应用)望而却步。以经典的 VGG-16 网络 为例,其参数数量达到了 1 亿 3 千多万,占用逾 500MB 的磁盘存储空间,需要进行 309 亿次浮点运算才能完成一张图像的识别任务。如此巨 大的存储代价以及计算开销,严重制约了深度网络在移动端等小型设备上的应用。

鉴于此,神经网络的压缩逐渐成为当下深度学习领域的热门研究课题。按照压缩过程对网络结构的破坏程度,我们将模型压缩技术分为「前端压缩」与「后端压缩」两部分。所谓「前端压缩」,是指不改变原网络结构的压缩 技术,主要包括知识蒸馏、紧凑的模型结构设计以及滤波器层面的剪枝等;而「后端压缩」则包括低秩近似、未加限制的剪枝、参数量化以及二值网络等,其目标在于尽可能地减少模型大小,因而会对原始网络结构造成极大 程度的改造。其中,由于「前端压缩」未改变原有的网络结构,仅仅只是在原 模型的基础上减少了网络的层数或者滤波器的个数,其最终的模型可完美适配现有的深度学习库。相比之下,「后端压缩」为了追求极致的压缩比,不得不对原有的网络结构进行改造,如对参数进行量化表示等,而这 样的改造往往是不可逆的。同时,为了获得理想的压缩效果,必须开发相配套的运行库,甚至是专门的硬件设备,其最终的结果往往是一种压缩技术对应于 一套运行库,从而带来了巨大的维护成本。

很多时候,如果不是专门去了解模型压缩相关的研究与文献,我们很难对模型压缩的整体技术与优缺点有一个比较直观的理解。通过这本关注实践的书籍,我们对这些技术能有一个宏观的掌握,继续实现就只需要查具体文献和代码就行了。

具体目录如下:



长按识别小程序码,试试手气吧~


标签: