From c78f7437a6940ac333647d4c6fe563c75e9486d1 Mon Sep 17 00:00:00 2001 From: wizardforcel <562826179@qq.com> Date: Sat, 8 May 2021 11:06:40 +0800 Subject: [PATCH] 2021-05-08 11:06:40 --- doc/kafka-100-doc-zh/code.html | 48 +++---- doc/kafka-100-doc-zh/coding-guide.html | 48 +++---- doc/kafka-100-doc-zh/committers.html | 46 +++--- doc/kafka-100-doc-zh/contact.html | 8 +- doc/kafka-100-doc-zh/contributing.html | 48 +++---- doc/kafka-100-doc-zh/documentation.html | 132 +++++++++--------- .../documentation/streams/architecture.html | 72 +++++----- .../documentation/streams/core-concepts.html | 78 +++++------ .../streams/developer-guide.html | 106 +++++++------- .../documentation/streams/index.html | 66 ++++----- .../documentation/streams/quickstart.html | 72 +++++----- .../documentation/streams/upgrade-guide.html | 64 ++++----- doc/kafka-100-doc-zh/downloads.html | 48 +++---- doc/kafka-100-doc-zh/events.html | 8 +- doc/kafka-100-doc-zh/index.html | 58 ++++---- doc/kafka-100-doc-zh/intro.html | 66 ++++----- doc/kafka-100-doc-zh/performance.html | 48 +++---- doc/kafka-100-doc-zh/powered-by.html | 50 +++---- doc/kafka-100-doc-zh/project-security.html | 48 +++---- doc/kafka-100-doc-zh/project.html | 60 ++++---- doc/kafka-100-doc-zh/protocol.html | 48 +++---- doc/kafka-100-doc-zh/quickstart.html | 50 +++---- doc/kafka-100-doc-zh/uses.html | 52 +++---- 23 files changed, 662 insertions(+), 662 deletions(-) diff --git a/doc/kafka-100-doc-zh/code.html b/doc/kafka-100-doc-zh/code.html index dde8a8d..66cadda 100644 --- a/doc/kafka-100-doc-zh/code.html +++ b/doc/kafka-100-doc-zh/code.html @@ -93,7 +93,7 @@
- + - + + - + + - + + - + + - + @@ -722,7 +722,7 @@ Kafka 从这些日志文件中提取信息,并将其抽象为一个更加清 然后对这个内容进行标准化或者重复的内容, 并将处理完的文章内容发布到新的topic; 最终它会尝试将这些内容推荐给用户。 -这种处理管道基于各个topic创建实时数据流图。从0.10.0.0开始,在Apache Kafka中,Kafka Streams +这种处理管道基于各个topic创建实时数据流图。从0.10.0.0开始,在Apache Kafka中,Kafka Streams 可以用来执行上述的数据处理,它是一个轻量但功能强大的流处理库。除Kafka Streams外,可供替代的开源流处理工具还包括Apache Storm 和Apache Samza. @@ -733,7 +733,7 @@ Kafka 可以存储非常多的日志数据,为基于 event sourcing 的应用Kafka Streams是用于构建实时关键应用程序和微服务的客户端库,输入与输出数据存储在Kafka集群中。 Kafka Streams把客户端能够轻便地编写部署标准Java和Scala应用程序的优势与Kafka服务器端集群技术相结合,使这些应用程序具有高度伸缩性、弹性、容错性、分布式等特性。 - 本快速入门示例将演示如何运行一个基于该库编程的流式应用程序。 + 本快速入门示例将演示如何运行一个基于该库编程的流式应用程序。
@@ -1196,7 +1196,7 @@ var context={ProcessorContext#schedule()
、Processor#punctuate()
、KStreamBuilder
和TopologyBuilder
正在被新的API取代。我们建议进行相应的代码更改,在升级时这些改变是细微的,因为新的API看起来非常相似。key.serde
,value.serde
和 timestamp.extractor
,建议使用替换的配置参数,因为这些配置已被弃用。TimestampExtractor
界面已更改。StreamsMetric
界面已更改。exclude.internal.topics
以防止内部主题(例如消费者偏移主题)意外地被符合正则表达式的订阅源订阅。默认情况下,该设置启用。Examples showing how to use the producer are given in the - javadocs. + javadocs.
To use the producer, you can use the following maven dependency: @@ -1576,7 +1576,7 @@ var context={ The Consumer API allows applications to read streams of data from topics in the Kafka cluster.
Examples showing how to use the consumer are given in the - javadocs. + javadocs.
To use the consumer, you can use the following maven dependency:
@@ -1592,9 +1592,9 @@ var context={ The Streams API allows transforming streams of data from input topics to output topics.- For more information about the AdminClient APIs, see the javadoc. + For more information about the AdminClient APIs, see the javadoc.Examples showing how to use this library are given in the - javadocs + javadocs
- Additional documentation on using the Streams API is available here. + Additional documentation on using the Streams API is available here.
To use Kafka Streams you can use the following maven dependency: @@ -1610,9 +1610,9 @@ var context={ The Connect API allows implementing connectors that continually pull from some source data system into Kafka or push from Kafka into some sink data system.
- Many users of Connect won't need to use this API directly, though, they can use pre-built connectors without needing to write any code. Additional information on using Connect is available here. + Many users of Connect won't need to use this API directly, though, they can use pre-built connectors without needing to write any code. Additional information on using Connect is available here.
- Those who want to implement custom connectors can see the javadoc. + Those who want to implement custom connectors can see the javadoc.
2.5 AdminClient API
@@ -1627,13 +1627,13 @@ var context={ <version>{{fullDotVersion}}</version> </dependency>
- A more limited legacy producer and consumer api is also included in Kafka. These old Scala APIs are deprecated and only still available for compatibility purposes. Information on them can be found here + A more limited legacy producer and consumer api is also included in Kafka. These old Scala APIs are deprecated and only still available for compatibility purposes. Information on them can be found here here.
@@ -3190,7 +3190,7 @@ ISR 副本同步完成,就会返回消息已经写入。例如,一个 topic- +
Log head中包含传统的Kafka日志,它包含了连续的offset和所有的消息。 日志压缩增加了处理tail Log的选项。 @@ -3206,7 +3206,7 @@ ISR 副本同步完成,就会返回消息已经写入。例如,一个 topic 压缩操作通过在后台周期性的拷贝日志段来完成。 清除操作不会阻塞读取,并且可以被配置不超过一定IO吞吐来避免影响Producer和Consumer。实际的日志段压缩过程有点像这样:
- +
- 关于cleaner更详细的配置在 这里。 + 关于cleaner更详细的配置在 这里。
@@ -3447,7 +3447,7 @@ Log Cleaner默认启用。这会启动清理的线程池。如果要开始特定
消息的偏移量用作消息 id 是不常见的.我们最开始的想法是使用 producer 自增的 GUID ,并维护从 GUID 到每个 broker 的 offset 的映射.这样的话每个消费者需要为每个服务端维护一个 ID,提供全球唯一的 GUID 没有意义.而且,维护一个从随机 ID 到偏移量映射的复杂度需要一个重度的索引结构,它需要与磁盘进行同步,本质上需要一个完整的持久随机访问数据结构.因此为了简化查找结构,我们决定针对每个分区使用一个原子计数器,它可以利用分区id和节点id唯一标识一条消息.虽然这使得查找结构足够简单,但每个消费者的多个查询请求依然是相似的.一旦我们决定使用使用计数器,直接跳转到对应的偏移量显得更加自然-毕竟对于每个分区来说它们都是一个单调递增的整数.由于消费者API隐藏了偏移量,所以这个决定最终是一个实现细节,我们采用了更高效的方法。
- +日志允许序列化的追加到最后一个文件中.当文件大小达到配置的大小(默认 1G)时,会生成一个新的文件.日志中有两个配置参数: M 是在 OS 强制写文件到磁盘之前的消息条数, S 是强制写盘的秒数.这提供了一个在系统崩溃时最多丢失 M 条或者 S 秒消息的保证. @@ -6876,7 +6876,7 @@ Convert timestamps between different formats such as Unix epoch, strings, and Co -
Kafka Streams 是一个用于处理和分析存储在 Kafka 系统中的数据的客户端库。 它建立在重要的流处理概念上,如恰当地区分事件时间(event time)和处理时间(processing time),支持窗口操作(window),exactly-once 处理语义以及简单高效的应用程序状态管理。
@@ -6884,7 +6884,7 @@ Convert timestamps between different formats such as Unix epoch, strings, and Co Kafka Streams 的入门门槛很低。我们可以在单节点环境上快速实现一个小规模的验证性的程序,只要程序能在多节点的集群环境成功运行即可部署到高负载的生产环境。 Kafka Streams 通过利用 Kafka 的并行模型实现对相同应用程序的多个实例的负载平衡,这对于用户来说是透明的。 -Learn More about Kafka Streams read this Section.
+Learn More about Kafka Streams read this Section.
@@ -6896,13 +6896,13 @@ Convert timestamps between different formats such as Unix epoch, strings, and Co - +