Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
hands-on-ml-zh
提交
9b62f562
H
hands-on-ml-zh
项目概览
OpenDocCN
/
hands-on-ml-zh
通知
13
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
H
hands-on-ml-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
未验证
提交
9b62f562
编写于
12月 05, 2018
作者:
F
Font Tian
提交者:
GitHub
12月 05, 2018
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #107 from bigeyex/patch-7
订正 10.人工神经网络介绍.md Python代码中存在的格式错误
上级
4122c485
abc169f6
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
9 addition
and
6 deletion
+9
-6
docs/10.人工神经网络介绍.md
docs/10.人工神经网络介绍.md
+9
-6
未找到文件。
docs/10.人工神经网络介绍.md
浏览文件 @
9b62f562
...
...
@@ -86,13 +86,14 @@ sklearn 提供了一个感知器类,它实现了一个 LTU 网络。它可以
```
python
import
numpy
as
np
from
sklearn.datasets
import
load_iris
from
sklearn.linear_model
import
Perceptron
iris
=
load_iris
()
X
=
iris
.
data
[:,
(
2
,
3
)]
# 花瓣长度,宽度
from
sklearn.datasets
import
load_iris
from
sklearn.linear_model
import
Perceptron
iris
=
load_iris
()
X
=
iris
.
data
[:,
(
2
,
3
)]
# 花瓣长度,宽度
y
=
(
iris
.
target
==
0
).
astype
(
np
.
int
)
per_clf
=
Perceptron
(
random_state
=
42
)
per_clf
.
fit
(
X
,
y
)
y_pred
=
per_clf
.
predict
([[
2
,
0.5
]])
per_clf
.
predict
([[
2
,
0.5
]])
```
您可能已经认识到,感知器学习算法类似于随机梯度下降。事实上,sklearn 的感知器类相当于使用具有以下超参数的 SGD 分类器:
`loss="perceptron"`
,
`learning_rate="constant"`
(学习率),
`eta0=1`
,
`penalty=None`
(无正则化)。
...
...
@@ -143,8 +144,10 @@ MLP 通常用于分类,每个输出对应于不同的二进制类(例如,
```
python
import
tensorflow
as
tf
feature_columns
=
tf
.
contrib
.
learn
.
infer_real_valued_columns_from_input
(
X_train
)
dnn_clf
=
tf
.
contrib
.
learn
.
DNNClassifier
(
hidden_units
=
[
300
,
100
],
n_classes
=
10
,
feature_columns
=
feature_columns
)
dnn_clf
.
fit
(
x
=
X_train
,
y
=
y_train
,
batch_size
=
50
,
steps
=
40000
)
feature_columns
=
tf
.
contrib
.
learn
.
infer_real_valued_columns_from_input
(
X
)
dnn_clf
=
tf
.
contrib
.
learn
.
DNNClassifier
(
hidden_units
=
[
300
,
100
],
n_classes
=
10
,
feature_columns
=
feature_columns
)
dnn_clf
.
fit
(
x
=
X
,
y
=
y
,
batch_size
=
50
,
steps
=
40000
)
```
如果你在 MNIST 数据集上运行这个代码(在缩放它之后,例如,通过使用 skLearn 的
`StandardScaler`
),你实际上可以得到一个在测试集上达到 98.1% 以上精度的模型!这比我们在第 3 章中训练的最好的模型都要好:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录