| spark.history.ui.port | 18080 | history server 的Web界面绑定的端口。 |
| spark.history.kerberos.enabled | false | 表明 history server 是否应该使用kerberos进行登录。 如果 history server 正在访问安全的Hadoop集群上的HDFS文件,则需要这样做。 如果这是真的,它使用配置 `spark.history.kerberos.principal` 和 `spark.history.kerberos.keytab` |
| spark.history.kerberos.enabled | false | 表明 history server 是否应该使用kerberos进行登录。如果 history server 正在访问安全的Hadoop集群上的HDFS文件,则需要这样做。如果这是真的,它使用配置 `spark.history.kerberos.principal` 和 `spark.history.kerberos.keytab` |
| spark.history.kerberos.principal | (none) | history server 的Kerberos主要名称。 |
| spark.history.kerberos.keytab | (none) | history server 的kerberos keytab文件的位置。 |
除了在UI中查看指标之外,还可以使用JSON。 这为开发人员提供了一种简单的方法来为Spark创建新的可视化和监控工具。 JSON可用于运行的应用程序和 history server。The endpoints are mounted at `/api/v1`。 例如,对于 history server,它们通常可以在 `http://<server-url>:18080/api/v1` 访问,对于正在运行的应用程序,在 `http://localhost:4040/api/v1`。
除了在UI中查看指标之外,还可以使用JSON。这为开发人员提供了一种简单的方法来为Spark创建新的可视化和监控工具。JSON可用于运行的应用程序和 history server。The endpoints are mounted at `/api/v1`。例如,对于 history server,它们通常可以在 `http://<server-url>:18080/api/v1` 访问,对于正在运行的应用程序,在 `http://localhost:4040/api/v1`。
A numeric accumulator can be created by calling `SparkContext.longAccumulator()` or `SparkContext.doubleAccumulator()` to accumulate values of type Long or Double, respectively. Tasks running on a cluster can then add to it using the `add` method. However, they cannot read its value. Only the driver program can read the accumulator’s value, using its `value` method.