docs.md 20.6 KB
Newer Older
Y
Yiqing Liu 已提交
1 2
# 高效写入数据

3
TDengine支持多种接口写入数据,包括SQL,Prometheus,Telegraf,collectd,StatsD,EMQ MQTT Broker,HiveMQ Broker,CSV文件等,后续还将提供Kafka,OPC等接口。数据可以单条插入,也可以批量插入,可以插入一个数据采集点的数据,也可以同时插入多个数据采集点的数据。支持多线程插入,支持时间乱序数据插入,也支持历史数据插入。
Y
Yiqing Liu 已提交
4

5
## <a class="anchor" id="sql"></a>SQL 写入
Y
Yiqing Liu 已提交
6

7
应用通过C/C++, Java, Go, C#, Python, Node.js 连接器执行SQL insert语句来插入数据,用户还可以通过TAOS Shell,手动输入SQL insert语句插入数据。比如下面这条insert 就将一条记录写入到表d1001中:
Y
Yiqing Liu 已提交
8 9 10 11 12 13 14 15 16 17 18 19 20
```mysql
INSERT INTO d1001 VALUES (1538548685000, 10.3, 219, 0.31);
```
TDengine支持一次写入多条记录,比如下面这条命令就将两条记录写入到表d1001中:
```mysql
INSERT INTO d1001 VALUES (1538548684000, 10.2, 220, 0.23) (1538548696650, 10.3, 218, 0.25);
```

TDengine也支持一次向多个表写入数据,比如下面这条命令就向d1001写入两条记录,向d1002写入一条记录:
```mysql
INSERT INTO d1001 VALUES (1538548685000, 10.3, 219, 0.31) (1538548695000, 12.6, 218, 0.33) d1002 VALUES (1538548696800, 12.3, 221, 0.31);
```

21
详细的SQL INSERT语法规则请见 [TAOS SQL 的数据写入](https://www.taosdata.com/cn/documentation/taos-sql#insert) 章节。
Y
Yiqing Liu 已提交
22

陶建辉(Jeff)'s avatar
陶建辉(Jeff) 已提交
23
**Tips:** 
Y
Yiqing Liu 已提交
24

S
Shuduo Sang 已提交
25
- 要提高写入效率,需要批量写入。一批写入的记录条数越多,插入效率就越高。但一条记录不能超过16K,一条SQL语句总长度不能超过64K(可通过参数maxSQLLength配置,最大可配置为1M)。
26 27 28
- TDengine支持多线程同时写入,要进一步提高写入速度,一个客户端需要打开20个以上的线程同时写。但线程数达到一定数量后,无法再提高,甚至还会下降,因为线程频繁切换,带来额外开销。
- 对同一张表,如果新插入记录的时间戳已经存在,默认情形下(UPDATE=0)新记录将被直接抛弃,也就是说,在一张表里,时间戳必须是唯一的。如果应用自动生成记录,很有可能生成的时间戳是一样的,这样,成功插入的记录条数会小于应用插入的记录条数。如果在创建数据库时使用了 UPDATE 1 选项,插入相同时间戳的新记录将覆盖原有记录。
- 写入的数据的时间戳必须大于当前时间减去配置参数keep的时间。如果keep配置为3650天,那么无法写入比3650天还早的数据。写入数据的时间戳也不能大于当前时间加配置参数days。如果days为2,那么无法写入比当前时间还晚2天的数据。
X
Xiaxin Li 已提交
29

30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73
## <a class="anchor" id="schemaless"></a>Schemaless 写入

在物联网应用中,常会采集比较多的数据项,用于实现智能控制、业务分析、设备监控等。由于应用逻辑的版本升级,或者设备自身的硬件调整等原因,数据采集项就有可能比较频繁地出现变动。为了在这种情况下方便地完成数据记录工作,TDengine 从 2.2.0.0 版本开始,提供 Schemaless 写入方式,可以免于预先创建超级表/数据子表,而是随着数据写入,自动创建与数据对应的存储结构。并且在必要时,Schemaless 将自动增加必要的数据列,保证用户写入的数据可以被正确存储。目前,TDengine 的 C/C++ Connector 提供支持 Schemaless 的操作接口,详情请参见 [Schemaless 方式写入接口](https://www.taosdata.com/cn/documentation/connector#schemaless) 章节。这里对 Schemaless 的数据表达格式进行描述。

### Schemaless 数据行协议

Schemaless 采用一个字符串来表达最终存储的一个数据行(可以向 Schemaless 写入 API 中一次传入多个字符串来实现多个数据行的批量写入),其格式约定如下:
```json
measurement,tag_set field_set timestamp
```

其中,
* measurement 将作为数据表名。它与 tag_set 之间使用一个英文逗号来分隔。
* tag_set 将作为标签数据,其格式形如 `<tag_key>=<tag_value>,<tag_key>=<tag_value>`,也即可以使用英文逗号来分隔多个标签数据。它与 field_set 之间使用一个半角空格来分隔。
* field_set 将作为普通列数据,其格式形如 `<field_key>=<field_value>,<field_key>=<field_value>`,同样是使用英文逗号来分隔多个普通列的数据。它与 timestamp 之间使用一个半角空格来分隔。
* timestamp 即本行数据对应的主键时间戳。

在 Schemaless 的数据行协议中,tag_set、field_set 中的每个数据项都需要对自身的数据类型进行描述。具体来说:
* 如果两边有英文双引号,表示 BIANRY(32) 类型。例如 `"abc"`
* 如果两边有英文双引号而且带有 L 前缀,表示 NCHAR(32) 类型。例如 `L"报错信息"`
* 对空格、等号(=)、逗号(,)、双引号("),前面需要使用反斜杠(\)进行转义。(都指的是英文半角符号)
* 数值类型将通过后缀来区分数据类型:
  - 没有后缀,为 FLOAT 类型;
  - 后缀为 f32,为 FLOAT 类型;
  - 后缀为 f64,为 DOUBLE 类型;
  - 后缀为 i8,表示为 TINYINT (INT8) 类型;
  - 后缀为 i16,表示为 SMALLINT (INT16) 类型;
  - 后缀为 i32,表示为 INT (INT32) 类型;
  - 后缀为 i64,表示为 BIGINT (INT64) 类型;
* t, T, true, True, TRUE, f, F, false, False 将直接作为 BOOL 型来处理。

timestamp 位置的时间戳通过后缀来声明时间精度,具体如下:
* 不带任何后缀的长整数会被当作微秒来处理;
* 当后缀为 s 时,表示秒时间戳;
* 当后缀为 ms 时,表示毫秒时间戳;
* 当后缀为 us 时,表示微秒时间戳;
* 当后缀为 ns 时,表示纳秒时间戳;
* 当时间戳为 0 时,表示采用客户端的当前时间(因此,同一批提交的数据中,时间戳 0 会被解释为同一个时间点,于是就有可能导致时间戳重复)。

例如,如下 Schemaless 数据行表示:向名为 st 的超级表下的 t1 标签为 3(BIGINT 类型)、t2 标签为 4(DOUBLE 类型)、t3 标签为 "t3"(BINARY 类型)的数据子表,写入 c1 列为 3(BIGINT 类型)、c2 列为 false(BOOL 类型)、c3 列为 "passit"(NCHAR 类型)、c4 列为 4(DOUBLE 类型)、主键时间戳为 1626006833639000000(纳秒精度)的一行数据。
```json
st,t1=3i64,t2=4f64,t3="t3" c1=3i64,c3=L"passit",c2=false,c4=4f64 1626006833639000000ns
```

74 75
需要注意的是,如果描述数据类型后缀时使用了错误的大小写,或者为数据指定的数据类型有误,均可能引发报错提示而导致数据写入失败。

76 77 78 79 80 81
### Schemaless 的处理逻辑

Schemaless 按照如下原则来处理行数据:
1. 当 tag_set 中有 ID 字段时,该字段的值将作为数据子表的表名。
2. 没有 ID 字段时,将使用 `measurement + tag_value1 + tag_value2 + ...` 的 md5 值来作为子表名。
3. 如果指定的超级表名不存在,则 Schemaless 会创建这个超级表。
82
4. 如果指定的数据子表不存在,则 Schemaless 会按照步骤 1 或 2 确定的子表名来创建子表。
83 84 85 86 87 88 89 90 91 92 93
5. 如果数据行中指定的标签列或普通列不存在,则 Schemaless 会在超级表中增加对应的标签列或普通列(只增不减)。
6. 如果超级表中存在一些标签列或普通列未在一个数据行中被指定取值,那么这些列的值在这一行中会被置为 NULL。
7. 对 BINARY 或 NCHAR 列,如果数据行中所提供值的长度超出了列类型的限制,那么 Schemaless 会增加该列允许存储的字符长度上限(只增不减),以保证数据的完整保存。
8. 如果指定的数据子表已经存在,而且本次指定的标签列取值跟已保存的值不一样,那么最新的数据行中的值会覆盖旧的标签列取值。
9. 整个处理过程中遇到的错误会中断写入过程,并返回错误代码。

**注意:**Schemaless 所有的处理逻辑,仍会遵循 TDengine 对数据结构的底层限制,例如每行数据的总长度不能超过 16k 字节。这方面的具体限制约束请参见 [TAOS SQL 边界限制](https://www.taosdata.com/cn/documentation/taos-sql#limitation) 章节。

关于 Schemaless 的字符串编码处理、时区设置等,均会沿用 TAOSC 客户端的设置。

## <a class="anchor" id="prometheus"></a>Prometheus 直接写入
94

95
[Prometheus](https://www.prometheus.io/)作为Cloud Native Computing Fundation毕业的项目,在性能监控以及K8S性能监控领域有着非常广泛的应用。TDengine提供一个小工具[Bailongma](https://github.com/taosdata/Bailongma),只需对Prometheus做简单配置,无需任何代码,就可将Prometheus采集的数据直接写入TDengine,并按规则在TDengine自动创建库和相关表项。博文[用Docker容器快速搭建一个Devops监控Demo](https://www.taosdata.com/blog/2020/02/03/1189.html)即是采用Bailongma将Prometheus和Telegraf的数据写入TDengine中的示例,可以参考。
Y
Yiqing Liu 已提交
96

97
### 从源代码编译 blm_prometheus
98 99

用户需要从github下载[Bailongma](https://github.com/taosdata/Bailongma)的源码,使用Golang语言编译器编译生成可执行文件。在开始编译前,需要准备好以下条件:
Y
Yiqing Liu 已提交
100
- Linux操作系统的服务器
101
- 安装好Golang,1.14版本以上
102
- 对应的TDengine版本。因为用到了TDengine的客户端动态链接库,因此需要安装好和服务端相同版本的TDengine程序;比如服务端版本是TDengine 2.0.0, 则在Bailongma所在的Linux服务器(可以与TDengine在同一台服务器,或者不同服务器)
Y
Yiqing Liu 已提交
103 104

Bailongma项目中有一个文件夹blm_prometheus,存放了prometheus的写入API程序。编译过程如下:
105
```bash
Y
Yiqing Liu 已提交
106 107 108 109 110 111
cd blm_prometheus
go build
```

一切正常的情况下,就会在对应的目录下生成一个blm_prometheus的可执行程序。

112
### 安装 Prometheus
113

114
通过Prometheus的官网下载安装。具体请见:[下载地址](https://prometheus.io/download/)
Y
Yiqing Liu 已提交
115

116
### 配置 Prometheus
117

118
参考Prometheus的[配置文档](https://prometheus.io/docs/prometheus/latest/configuration/configuration/),在Prometheus的配置文件中的<remote_write>部分,增加以下配置:
Y
Yiqing Liu 已提交
119

120 121 122
```
  - url: "bailongma API服务提供的URL"(参考下面的blm_prometheus启动示例章节)
```
X
Xiaxin Li 已提交
123 124

启动Prometheus后,可以通过taos客户端查询确认数据是否成功写入。
Y
Yiqing Liu 已提交
125

126 127
### 启动 blm_prometheus 程序

Y
Yiqing Liu 已提交
128
blm_prometheus程序有以下选项,在启动blm_prometheus程序时可以通过设定这些选项来设定blm_prometheus的配置。
129
```bash
Y
Yiqing Liu 已提交
130
--tdengine-name
131
如果TDengine安装在一台具备域名的服务器上,也可以通过配置TDengine的域名来访问TDengine。在K8S环境下,可以配置成TDengine所运行的service name。
Y
Yiqing Liu 已提交
132

133
--batch-size
Y
Yiqing Liu 已提交
134 135 136 137 138 139
blm_prometheus会将收到的prometheus的数据拼装成TDengine的写入请求,这个参数控制一次发给TDengine的写入请求中携带的数据条数。

--dbname
设置在TDengine中创建的数据库名称,blm_prometheus会自动在TDengine中创建一个以dbname为名称的数据库,缺省值是prometheus。

--dbuser
140
设置访问TDengine的用户名,缺省值是'root'
Y
Yiqing Liu 已提交
141 142

--dbpassword
143
设置访问TDengine的密码,缺省值是'taosdata'
Y
Yiqing Liu 已提交
144 145 146 147 148

--port
blm_prometheus对prometheus提供服务的端口号。
```

X
Xiaxin Li 已提交
149
### 启动示例
Y
Yiqing Liu 已提交
150 151

通过以下命令启动一个blm_prometheus的API服务
152
```bash
Y
Yiqing Liu 已提交
153 154 155 156 157 158 159 160
./blm_prometheus -port 8088
```
假设blm_prometheus所在服务器的IP地址为"10.1.2.3",则在prometheus的配置文件中<remote_write>部分增加url为
```yaml
remote_write:
  - url: "http://10.1.2.3:8088/receive"
```

161 162
### 查询 prometheus 写入数据

Y
Yiqing Liu 已提交
163
prometheus产生的数据格式如下:
L
liu0x54 已提交
164
```json
L
liu0x54 已提交
165
{
L
liu0x54 已提交
166 167 168 169 170 171 172
  Timestamp: 1576466279341,
  Value: 37.000000, 
  apiserver_request_latencies_bucket {
    component="apiserver", 
    instance="192.168.99.116:8443", 
    job="kubernetes-apiservers", 
    le="125000", 
173 174
    resource="persistentvolumes", 
    scope="cluster",
L
liu0x54 已提交
175
    verb="LIST", 
176
    version="v1" 
L
liu0x54 已提交
177
  }
Y
Yiqing Liu 已提交
178 179 180
}
```
其中,apiserver_request_latencies_bucket为prometheus采集的时序数据的名称,后面{}中的为该时序数据的标签。blm_prometheus会以时序数据的名称在TDengine中自动创建一个超级表,并将{}中的标签转换成TDengine的tag值,Timestamp作为时间戳,value作为该时序数据的值。因此在TDengine的客户端中,可以通过以下指令查到这个数据是否成功写入。
181
```mysql
Y
Yiqing Liu 已提交
182 183 184 185
use prometheus;
select * from apiserver_request_latencies_bucket;
```

186
## <a class="anchor" id="telegraf"></a> Telegraf 直接写入(通过 BLM v3)
187 188 189
安装 Telegraf 请参考[官方文档](https://portal.influxdata.com/downloads/)

TDengine 新版本(2.3.0.0+)包含一个 BLM3 独立程序,负责接收包括 Telegraf 的多种应用的数据写入。
190

191
配置方法,在 /etc/telegraf/telegraf.conf 增加如下文字,其中 database name 请填写希望在 TDengine 保存 Telegraf 数据的数据库名,TDengine server/cluster host、username和 password 填写 TDengine 实际值:
192 193
```
[[outputs.http]]
194
  url = "http://<TDengine server/cluster host>:6041/influxdb/v1/write?db=<database name>"
195 196
  method = "POST"
  timeout = "5s"
197 198
  username = "<TDengine's username>"
  password = "<TDengine's password>"
199 200 201 202 203 204 205 206 207 208 209 210 211
  data_format = "influx"
  influx_max_line_bytes = 250
```

然后重启 telegraf:
```
sudo systemctl start telegraf
```
即可在 TDengine 中查询 metrics 数据库中 Telegraf 写入的数据。

BLM v3 相关配置参数请参考 blm3 --help 命令输出以及相关文档。

## <a class="anchor" id="collectd"></a> collectd 直接写入(通过 BLM v3)
212 213 214
安装 collectd,请参考[官方文档](https://collectd.org/download.shtml)

TDengine 新版本(2.3.0.0+)包含一个 BLM3 独立程序,负责接收包括 collectd 的多种应用的数据写入。
215

216
在 /etc/collectd/collectd.conf 文件中增加如下内容,其中 host 和 port 请填写 TDengine 和 BLM3 配置的实际值:
217 218 219
```
LoadPlugin network
<Plugin network>
220
  Server "<TDengine cluster/server host>" "<port for collectd>"
221 222 223 224 225 226 227 228 229 230
</Plugin>
```
重启 collectd
```
sudo systemctl start collectd
```
BLM v3 相关配置参数请参考 blm3 --help 命令输出以及相关文档。

## <a class="anchor" id="statsd"></a> StatsD 直接写入(通过 BLM v3)
安装 StatsD
231
请参考[官方文档](https://github.com/statsd/statsd)
232

233 234
TDengine 新版本(2.3.0.0+)包含一个 BLM3 独立程序,负责接收包括 StatsD 的多种应用的数据写入。

235
在 config.js 文件中增加如下内容后启动 StatsD,其中 host 和 port 请填写 TDengine 和 BLM3 配置的实际值:
236 237
```
backends 部分添加 "./backends/repeater"
238
repeater 部分添加 { host:'<TDengine server/cluster host>', port: <port for StatsD>}
239 240
```

241
示例配置文件:
242 243 244 245 246 247 248 249 250 251 252 253 254 255
```
{
port: 8125
, backends: ["./backends/repeater"]
, repeater: [{ host: '127.0.0.1', port: 8126}]
}
```

BLM v3 相关配置参数请参考 blm3 --help 命令输出以及相关文档。


## <a class="anchor" id="blm2-telegraf"></a> 使用 Bailongma 2.0 接入 Telegraf 数据写入

*注意:TDengine 新版本(2.3.0.0+)提供新版本 Bailongma ,命名为 BLM v3,提供更简便的 Telegraf 数据写入以及其他更强大的功能,Bailongma v2 即之前版本将逐步不再维护。
256 257

[Telegraf](https://www.influxdata.com/time-series-platform/telegraf/)是一流行的IT运维数据采集开源工具,TDengine提供一个小工具[Bailongma](https://github.com/taosdata/Bailongma),只需在Telegraf做简单配置,无需任何代码,就可将Telegraf采集的数据直接写入TDengine,并按规则在TDengine自动创建库和相关表项。博文[用Docker容器快速搭建一个Devops监控Demo](https://www.taosdata.com/blog/2020/02/03/1189.html)即是采用bailongma将Prometheus和Telegraf的数据写入TDengine中的示例,可以参考。
Y
Yiqing Liu 已提交
258

259
### 从源代码编译 blm_telegraf
260 261

用户需要从github下载[Bailongma](https://github.com/taosdata/Bailongma)的源码,使用Golang语言编译器编译生成可执行文件。在开始编译前,需要准备好以下条件:
Y
Yiqing Liu 已提交
262 263

- Linux操作系统的服务器
264
- 安装好Golang,1.10版本以上
265
- 对应的TDengine版本。因为用到了TDengine的客户端动态链接库,因此需要安装好和服务端相同版本的TDengine程序;比如服务端版本是TDengine 2.0.0, 则在Bailongma所在的Linux服务器(可以与TDengine在同一台服务器,或者不同服务器)
Y
Yiqing Liu 已提交
266 267 268

Bailongma项目中有一个文件夹blm_telegraf,存放了Telegraf的写入API程序。编译过程如下:

269
```bash
Y
Yiqing Liu 已提交
270 271 272 273 274 275
cd blm_telegraf
go build
```

一切正常的情况下,就会在对应的目录下生成一个blm_telegraf的可执行程序。

276
### 安装 Telegraf
277

278
目前TDengine支持Telegraf 1.7.4以上的版本。用户可以根据当前的操作系统,到Telegraf官网下载安装包,并执行安装。下载地址如下:https://portal.influxdata.com/downloads 。
Y
Yiqing Liu 已提交
279

280
### 配置 Telegraf
281

Y
Yiqing Liu 已提交
282 283
修改Telegraf配置文件/etc/telegraf/telegraf.conf中与TDengine有关的配置项。 

284
在output plugins部分,增加[[outputs.http]]配置项:
Y
Yiqing Liu 已提交
285

286 287 288
- url:Bailongma API服务提供的URL,参考下面的启动示例章节
- data_format:"json"
- json_timestamp_units:"1ms"
Y
Yiqing Liu 已提交
289 290 291

在agent部分:

292
- hostname: 区分不同采集设备的机器名称,需确保其唯一性。
Y
Yiqing Liu 已提交
293 294
- metric_batch_size: 100,允许Telegraf每批次写入记录最大数量,增大其数量可以降低Telegraf的请求发送频率。

295
关于如何使用Telegraf采集数据以及更多有关使用Telegraf的信息,请参考Telegraf官方的[文档](https://docs.influxdata.com/telegraf/v1.11/)
Y
Yiqing Liu 已提交
296

297 298
### 启动 blm_telegraf 程序

Y
Yiqing Liu 已提交
299 300
blm_telegraf程序有以下选项,在启动blm_telegraf程序时可以通过设定这些选项来设定blm_telegraf的配置。

301
```bash
302
--host
303
TDengine服务端的IP地址,缺省值为空。
Y
Yiqing Liu 已提交
304

305
--batch-size
Y
Yiqing Liu 已提交
306 307 308 309 310 311
blm_telegraf会将收到的telegraf的数据拼装成TDengine的写入请求,这个参数控制一次发给TDengine的写入请求中携带的数据条数。

--dbname
设置在TDengine中创建的数据库名称,blm_telegraf会自动在TDengine中创建一个以dbname为名称的数据库,缺省值是prometheus。

--dbuser
312
设置访问TDengine的用户名,缺省值是'root'
Y
Yiqing Liu 已提交
313 314

--dbpassword
315
设置访问TDengine的密码,缺省值是'taosdata'
Y
Yiqing Liu 已提交
316 317 318 319 320

--port
blm_telegraf对telegraf提供服务的端口号。
```

X
Xiaxin Li 已提交
321
### 启动示例
322

323
通过以下命令启动一个blm_telegraf的API服务:
324
```bash
Y
Yiqing Liu 已提交
325 326 327
./blm_telegraf -host 127.0.0.1 -port 8089
```

328
假设blm_telegraf所在服务器的IP地址为"10.1.2.3",则在telegraf的配置文件中, 在output plugins部分,增加[[outputs.http]]配置项:
Y
Yiqing Liu 已提交
329 330 331 332 333

```yaml
url = "http://10.1.2.3:8089/telegraf"
```

334
### 查询 telegraf 写入数据
335

Y
Yiqing Liu 已提交
336
telegraf产生的数据格式如下:
L
liu0x54 已提交
337
```json
Y
Yiqing Liu 已提交
338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360
{
  "fields": {
    "usage_guest": 0, 
    "usage_guest_nice": 0,
    "usage_idle": 89.7897897897898, 
    "usage_iowait": 0,
    "usage_irq": 0,
    "usage_nice": 0,
    "usage_softirq": 0,
    "usage_steal": 0,
    "usage_system": 5.405405405405405, 
    "usage_user": 4.804804804804805
  },
  
  "name": "cpu", 
  "tags": {
    "cpu": "cpu2",
    "host": "bogon" 
  },
  "timestamp": 1576464360 
}
```

361
其中,name字段为telegraf采集的时序数据的名称,tags字段为该时序数据的标签。blm_telegraf会以时序数据的名称在TDengine中自动创建一个超级表,并将tags字段中的标签转换成TDengine的tag值,timestamp作为时间戳,fields字段中的值作为该时序数据的值。因此在TDengine的客户端中,可以通过以下指令查到这个数据是否成功写入。
Y
Yiqing Liu 已提交
362

363
```mysql
Y
Yiqing Liu 已提交
364 365 366 367
use telegraf;
select * from cpu;
```

368
## <a class="anchor" id="emq"></a>EMQ Broker 直接写入
369

370
MQTT是流行的物联网数据传输协议,[EMQ](https://github.com/emqx/emqx)是一开源的MQTT Broker软件,无需任何代码,只需要在EMQ Dashboard里使用“规则”做简单配置,即可将MQTT的数据直接写入TDengine。EMQ X 支持通过 发送到 Web 服务的方式保存数据到 TDEngine,也在企业版上提供原生的 TDEngine 驱动实现直接保存。详细使用方法请参考 [EMQ 官方文档](https://docs.emqx.io/broker/latest/cn/rule/rule-example.html#%E4%BF%9D%E5%AD%98%E6%95%B0%E6%8D%AE%E5%88%B0-tdengine)
371

372
## <a class="anchor" id="hivemq"></a>HiveMQ Broker 直接写入
373

374
[HiveMQ](https://www.hivemq.com/) 是一个提供免费个人版和企业版的 MQTT 代理,主要用于企业和新兴的机器到机器M2M通讯和内部传输,满足可伸缩性、易管理和安全特性。HiveMQ 提供了开源的插件开发包。可以通过 HiveMQ extension - TDengine 保存数据到 TDengine。详细使用方法请参考 [HiveMQ extension - TDengine 说明文档](https://github.com/huskar-t/hivemq-tdengine-extension/blob/b62a26ecc164a310104df57691691b237e091c89/README.md)