Java工程师转型AI的秘密法宝:深度学习框架Deeplearning4j | 回顾

来源:互联网 发布:web-dl软件 编辑:程序博客网 时间:2024/06/05 13:30

深度学习是人工智能发展最为迅速的领域之一,Google、Facebook、Microsoft等巨头都围绕深度学习重点投资了一系列新兴项目,他们也一直在支持一些开源深度学习框架。目前研究人员使用的深度学习框架有 TensorFlow、Torch 、Caffe、Theano、Deeplearning4j等,而Deeplearning4j是为数不多以Java/JVM为基础,能与Apache Spark无缝结合,支持CPU/GPU集群分布式计算的开源框架。本文就来为大家详细介绍一下深度学习框架Deeplearning4j的重要组件,不同环境下的操作用法及实例分享。

在近期AI研习社公开课,来自苏宁易购搜索技术研发部的资深算法工程师万宫玺为大家介绍了Deeplearning4框架的构成、主要功能模块并结合实例讲述具体的使用方法。

万宫玺,苏州大学硕士,现就职于苏宁易购搜索技术研发部,从事自然语言处理、机器视觉等领域的应用开发工作。熟悉诸如Deeplearning4j、Keras等开源深度学习框架。

以下为主要分享内容:

分享内容可概括以下四方面:

  • Deeplearning4j生态圈主要功能模块的介绍

  • Deeplearning4j单机/并行/分布式建模过程介绍

  • Deeplearning4j对迁移学习、强化学习的支持

  • 基于Fashion Mnist数据集的图像分类应用的开发、部署、上线实例

第一部分内容具体为DL4j的开源库背景,目前的项目进展情况和背后的支撑团队。

第二部分为DL4j的生态圈,主要介绍生态圈中最重要的三个模块:DL4j本身,它所依赖的张量预算库ND4j、DL4j当中做数据ETL的库DataVec。

DL4j本身,它定义并且实现了比较经典的神经网络结构,比如图片中比较常用的卷积神经网络。机器学习都需要依赖一个张量运算框架,对于DL4j,他依赖的是ND4j这样一个框架,libnd4j是ND4j调用的一个库。

Model Zoo 是官方给出的经典神经网络结构的实现。包括AlexNet,GoogLenet ,DeepFace,YOLO等。Modle Zoo在0.9.0版本之前是作为一个独立的工程存在的,0.9.0之后的版本作为DL4j本身的一个模块,已经嵌入进去。

DL4j所依赖的张量运算库ND4J,ND4j可当作JAVA 版的Numpy。

ND4j内存管理情况:

ND4j利用了堆外内存和堆上内存两个部分的内存做相应的计算。当用ND4j去声明一个具体的张量时候,是在堆外内存存储张量对象,堆上内存只存储张量对象的引用。设计的原因主要是我们所依赖张量运算库,大部分的运算空间都是在堆外内存上,把数据放到堆外内存可提高运行效率。

需要注意的是,用ND4j做神经网络的训练时,堆外内存一定要调的非常大,因为大量的工作都是在堆外内存做相应的张量运算。堆外内存要远远大于堆上内存。

ND4j具体例子,第一个是如何去创建一个张量,并且把这个张量在底层存储的顺序打印出来。

第二个是hadmard乘积实现。用直白的话解释就是,两个张量相应的位置去做乘积,把这个结果形成新的向量,作为下一部分利用的结果,这个操作在包括卷积上面都是比较常用的。

数据ETL库,称之为DataVec, 它的主要功能就是把语音信号,图片文件,文本文档转化为张量形式,做数据ETL.

总结DataVec库的作用:它可以将非结构化数据经过处理转化变成张量型数据,也支持结构化数据的读取。

第三个部分怎么建模。分三个场景,第一个是本地单机建模;第二个是有多个CPU或多个GPU卡情况下怎么做并行建模;第三个是怎么和Spark结合做分布式的DL4j模型的建模。

建模的四个步骤并不是固定的,可以根据实际情况做灵活的处理。大致思路首先是生成这样一个训练,测试,验证数据集。

本地单机建模,首先是加载数据(包括本地数据和测试数据),其次是配置模型结构以及超参数,并初始化模型参数。最后,训练神经网络模型,并利用测试数据集进行评估。

数据并行化:

并行建模如图所示:

怎么和Spark结合做一个分布式的Dp4j模型的建模:

想要在Spark上面开发的同学,需要注意Spark的版本,因为DL4j支持1.5、1.6 还有2.0之后的版本。框架接近1.0版本的发布,真正原生态支持Spark 并不多,DL4j和Spark的结合是它的一大亮点。

第四部分是强化学习模块,称之为RL4j ,也是生态系统当中的一个组件。

迁移学习和强化学习在DL4j的支持情况:

具体应用实例分享:

关于Deeplearning4j 的总结:

个人在做AI方面的心得体会:

  • 机器学习是AI的主要解决方案,但不是唯一方案。

  • 深度学习并不是万能的,对于非结构化数据:图像、文本、语音会有出色的效果,但传统机器学习模型同样很重要。

  • 数据的质和量在实际的应用中共同决定了模型的泛化能力。

  • 转型AI同样可以从Hello World 入手。

  • 提升AI内功必须精通原理,而不仅仅跑出Demo。

  • 不要局限于某一特定工具框架,可以取长补短。

  • 迁移学习和强化学习可能代表AI的未来。

如果想详细了解深度学习的应用,如何做开发,怎么去训练他的模型,怎么去调优,怎么去部署上线,点击阅读原文可回顾本期内容。

上海交通大学博士讲师团队

从算法到实战应用

涵盖CV领域主要知识点

手把手项目演示

全程提供代码

深度剖析CV研究体系

轻松实战深度学习应用领域!

▼▼▼  

(限时早鸟票~)


新人福利



关注 AI 研习社(okweiwu),回复  1  领取

【超过 1000G 神经网络 / AI / 大数据,教程,论文】



点击阅读原文,查看本场公开课回放视频

  

阅读全文
0 0