在此示例中,为回答`What is the boiling point of water`,我们首先提出问题。 然后,我们在搜索引擎上搜索主题。 这可能是该问题的某种简化表示; 例如,`boiling point of water`。 然后,我们的搜索引擎将返回一些相关文档,最有可能是 Wikipedia 中关于水的条目,然后我们将不得不手动搜索并使用它来推断问题的答案。 尽管此方法有效,但机器理解模型将使此过程有所简化。
在此示例中,为回答`What is the boiling point of water`,我们首先提出问题。 然后,我们在搜索引擎上搜索主题。 这可能是该问题的某种简化表示; 例如,`boiling point of water`。 然后,我们的搜索引擎将返回一些相关文档,最有可能是维基百科中关于水的条目,然后我们将不得不手动搜索并使用它来推断问题的答案。 尽管此方法有效,但机器理解模型将使此过程有所简化。
假设我们有一个完美的模型,能够完全理解并回答文本语料库上的问题。 我们可以在大量数据源(例如,互联网或 Wikipedia 的大型文本抓图)上训练该模型,并形成充当大型知识库的模型。 这样,我们便可以查询具有实际问题的知识库,并且答案将自动返回。 这消除了我们图的推理步骤,因为推理已由模型处理,因为该模型已经对主题有所了解:
![Figure 9.23 – New process using a model ](img/B12365_09_23.jpg)
...
...
@@ -560,7 +560,7 @@ A: No
在理想情况下,这就像键入搜索引擎`What is the boiling point of water`,并返回`100 °C (212 °F)`作为答案一样简单。
假设我们首先有此模型的简化版本。 假设我们已经知道该问题的答案已出现在文档中。因此,鉴于有关水的 Wikipedia 页面,我们能否训练一个模型来回答问题`What is the boiling point of water`。首先做一个简单的方法,而不是合并完整语言模型的元素,而是简单地返回包含我们问题答案的 Wikipedia 页面的段落。
假设我们首先有此模型的简化版本。 假设我们已经知道该问题的答案已出现在文档中。因此,鉴于有关水的维基百科页面,我们能否训练一个模型来回答问题`What is the boiling point of water`。首先做一个简单的方法,而不是合并完整语言模型的元素,而是简单地返回包含我们问题答案的维基百科页面的段落。