AlphaGo如何战胜人类围棋大师 智能硬件TensorFlow实践epub下载

AlphaGo如何战胜人类围棋大师 智能硬件TensorFlow实践 作者:陈震,郑文勋AlphaGo如何战胜人类围棋大师 智能硬件TensorFlow实践 出版社:清华大学出版社AlphaGo如何战胜人类围棋大师 智能硬件TensorFlow实践 内容简介本书主要阐述了当前机器智能的热点技术——深度学习和强化...

AlphaGo如何战胜人类围棋大师 智能硬件TensorFlow实践 作者:陈震,郑文勋

AlphaGo如何战胜人类围棋大师 智能硬件TensorFlow实践 出版社:清华大学出版社

AlphaGo如何战胜人类围棋大师 智能硬件TensorFlow实践 内容简介

本书主要阐述了当前机器智能的热点技术——深度学习和强化学习技术的原理。在此基础上,介绍AlphaGo结合深度学习和强化学习技术,如何战胜人类围棋大师的原理。接下来,将深度学习的理论转化为实践,给出如何通过掌握TensorFlow和Keras深度学习框架,制作声控智能硬件的例子,同时给出机器视觉的对象检测案例,指导读者逐步学习使用深度学习技术。

本书的主要特点是实践操作,用实用可运行的案例来上手。本书可作为实践入门指导书,适用于对机器智能有兴趣的高年级本科生,也适合于对机器智能有兴趣的人员参考。

AlphaGo如何战胜人类围棋大师 智能硬件TensorFlow实践 目录

前言

第1章 机器智能的发展

1.1 机器智能

1.2 深度学习

1.3 机器学习

参考文献

第2章 深度学习

2.1 深度学习的原理

2.2 典型的神经网络架构

2.3 机器感知

2.4 深度学习实践

2.5 小结

参考文献

第3章 强化学习

3.1 强化学习基础

3.2 计算机围棋

3.3 阿尔法围棋的原理

3.4 小结

参考文献

第4章 TensorFlow简介

4.1 TensorFlow

4.2 使用

4.3 Tensor运算

4.4 导入实验数据

4.5 TensorBoard示例

4.6 小结

参考文献

第5章 Keras简介

5.1 Keras

5.2 组织结构

5.3 Keras实践

5.4 小结

参考文献

第6章 声控智能1——预处理与训练

6.1 声控智能

6.2 实验过程

6.3 小结

参考文献

第7章 声控智能2——部署

7.1 网站端——在线推断

7.2 移动端——离线推断

7.3 小结

参考文献

第8章 PYNQ语音识别

8.1 PYNQ

实验设计

8.3 实验过程

参考文献

第9章 TX1视觉对象检测

9.1 英伟达Jetson TX1

9.2 YOLO算法

9.3 算法

参考文献

后记

附录A Python和TensorFlow操作基础

AlphaGo如何战胜人类围棋大师 智能硬件TensorFlow实践 精彩文摘

第5章Keras简介

Keras是由谷歌公司的研究员Francois Chollet开发的一套高层框架,进一步封装TensorFlow。TensorFlow 1.0版本已经集成了Keras框架。目前Keras版本为2.0。

5.1Keras

Keras是对TensorFlow、Theano和CNTK的进一步封装,抽取共性,二选一。Keras设计采用极简主义原则,是一套高度模块化的神经网络架构库。Keras具有方便使用的特点,如简洁的网络定义方式,常用技巧的封装。同时,Keras又保留足够的扩展性,可以自行实现各种层(Layers)。

机器学习模型、训练、预测过程如图51所示。

图51机器学习模型、训练、预测过程

5.2Keras组织结构〖*4/5〗5.2.1ModelsKeras核心的数据结构称为Model,如图52所示,Model是组织层的一种方式。最简单的Model类型是序列模型(Sequential Model)。序列模型是指串接很多层的管道。

图52Keras核心的数据结构Model

5.2.2Core Layers

Keras核心层(Core Layers) 包括Dense、Activation、Dropout、Flatten、Reshape、Permute、Repeat Vector、Lambda、Activity Regularization、Masking。

5.2.3Layers

Keras非核心层包括Convolutional Layers、Pooling Layers、Locallyconnected Layers、Recurrent Layers、Embedding Layers、Merge Layers、Advanced Activations Layers、Normalization Layers、Noise Layers。

5.2.4Activations

Keras 激活函数(Activations)包括softmax、elu、softplus、softsign、relu、tanh、sigmoid、hard_sigmoid、linear 等,函数表示式如下: softmax(x), elu(x, alpha=1.0), softplus(x), softsign(x), relu(x, alpha=0.0,
max_value=None), tanh(x), sigmoid(x), hard_sigmoid(x), linear(x)

本文来自水中明月投稿,不代表电子书资源网立场,如若转载,请联系原作者获取。

打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
() 0
上一篇 02-12
下一篇 02-12

相关推荐

评论列表

联系我们

在线咨询: QQ交谈

邮件:admin@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信