提交 f6877425 编写于 作者: W wizardforcel

2021-01-06 10:56:27

上级 3296977f
......@@ -980,7 +980,7 @@ image = Image.open(filename+'.png').convert('1')
我们还将图像仅转换为黑白通道。 这样会将图像中的通道数从 3 减少到 1。
5. 回想一下,MNIST 数据集中的所有图像的尺寸均为 28 x28。我们必须将当前图像调整为相同的尺寸。 我们使用以下代码行:
5. 回想一下,MNIST 数据集中的所有图像的尺寸均为`28 x 28`。我们必须将当前图像调整为相同的尺寸。 我们使用以下代码行:
```py
image.thumbnail((28,28), Image.ANTIALIAS)
......
......@@ -109,7 +109,7 @@
我们不希望我们的推荐系统偏向于任何事物。 数据中可能隐藏了许多类型的偏差,并且自然而然地,它可能导致使用它的 DL 系统继承该偏差。
要了解有关机器学习系统中不同类型偏见的更多信息,建议您参考[,网址为 https://developers.google.com/machine-learning/crash-course/fairness/types-of- 偏见](https://developers.google.com/machine-learning/crash-course/fairness/types-of-bias)。 在我们的案例中,一个令人吃惊的偏见例子是男性访问者获得平均推荐的产品推荐的情况。 这些建议可能仅基于其性别,而不基于任何其他访客浏览模式。 这可能是错误的,并且可能做错了。 但是像这样的实例会使我们的模型非常不合适。 在下一节中,我们将讨论一些要点,以了解如何避免数据出现偏差。
要了解有关机器学习系统中不同类型偏见的更多信息,建议您参考[偏差类型](https://developers.google.com/machine-learning/crash-course/fairness/types-of-bias)。 在我们的案例中,一个令人吃惊的偏见例子是男性访问者获得平均推荐的产品推荐的情况。 这些建议可能仅基于其性别,而不基于任何其他访客浏览模式。 这可能是错误的,并且可能做错了。 但是像这样的实例会使我们的模型非常不合适。 在下一节中,我们将讨论一些要点,以了解如何避免数据出现偏差。
# 避免首先获得错误数据的机会
......@@ -375,7 +375,7 @@ pickle.dump(user_vectorizer,output)
output.close()
```
将模型另存为二进制 pickle 文件,使我们可以在将模型部署到网站的后端时将它们快速加载回内存中。
将模型另存为二进制 Pickle 文件,使我们可以在将模型部署到网站的后端时将它们快速加载回内存中。
既然我们已经完成了预测模型的开发,那么我们将继续为应用程序构建接口。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册