# Neo4j的Apache Spark连接器 Apache Spark 的 Neo4j 连接器旨在使图与 Spark 的集成变得容易。有两种有效的使用连接器的方法: - **作为数据源**:在 Spark 中将任何节点或关系集作为 DataFrame 读取 - **作为接收器**:将任何 DataFrame 作为节点或关系的集合写入 Neo4j,或者;使用 Cypher 语句将 DataFrame 中的记录处理为您选择的图模式。 由于连接器基于新的 Spark 数据源 API,因此适用于 Python 和 R 等语言的其他 Spark 解释器也可以使用。 此连接器适用于 Neo4j 3.5 和 Neo4j 的整个 4+ 系列,无论是作为单个实例运行、在因果集群模式下运行,还是作为 Neo4j Aura 中的托管服务运行。连接器不依赖于企业功能,因此也可以与 Neo4j 社区一起使用,并具有适当的版本号。 此连接器当前支持 Spark 2.4.5+ with Scala 2.11 和 Scala 2.12 以及 Spark 3.0+ with Scala 2.12。根据 Spark 和 Scala 版本的组合,您将需要不同的 JAR。JAR 以以下形式命名 ```bash neo4j-connector-apache-spark_${scala.version}_${spark.version}_${connector.version} ``` 问题: 下列说法中,不正确的一项是? ## 答案 Spark连接器在开源社区版上无法使用 ## 选项 ### A Spark 连接器可用于从Spark中读取或写入数据 ### B Spark 连接器使用Java驱动程序来连接底层Neo4j图数据库 ### C Spark擅长处理DataFrame,Neo4j擅长处理图数据,使用连接器可以发挥两个的优势