提交 7c2afe41 编写于 作者: M Mars Liu

mathmatic parser skip if not success

上级 f9e99f74
......@@ -4,4 +4,4 @@
## 说明
技能树结构(章节、元信息、习题)解释器,支持技能树结构和内容的分析、解释。
CSDN 技能树结构(章节、元信息、习题)解释器,支持技能树结构和内容的分析、解释。
......@@ -69,7 +69,6 @@ def subscript(state):
@Parsec
def content(state):
buffer = ""
side(state)
while True:
try:
tran = state.begin()
......@@ -102,12 +101,17 @@ def processor(plain):
tran = st.begin()
c = one(st)
if c == "$":
st.rollback(tran)
cnt = content(st)
if cnt:
buffer += cnt
else:
raise ParsecError(st, f"unexpect content {st.data[st.index]} ")
index = st.index
try:
cnt = content(st)
if cnt:
buffer += cnt
else:
buffer += c
except ParsecError as err:
st.commit(tran)
buffer += st.data[index:st.index]
else:
st.commit(tran)
buffer += c
......
......@@ -213,5 +213,42 @@ class MathTestCase(unittest.TestCase):
result = processor(data)
self.assertEqual(result, math_processor(data))
spark = """# Neo4j的Apache Spark连接器
Apache Spark 的 Neo4j 连接器旨在使图与 Spark 的集成变得容易。有两种有效的使用连接器的方法:
- **作为数据源**:在 Spark 中将任何节点或关系集作为 DataFrame 读取
- **作为接收器**:将任何 DataFrame 作为节点或关系的集合写入 Neo4j,或者;使用 Cypher 语句将 DataFrame 中的记录处理为您选择的图模式。
由于连接器基于新的 Spark 数据源 API,因此适用于 Python 和 R 等语言的其他 Spark 解释器也可以使用。
此连接器适用于 Neo4j 3.5 和 Neo4j 的整个 4+ 系列,无论是作为单个实例运行、在因果集群模式下运行,还是作为 Neo4j Aura 中的托管服务运行。连接器不依赖于企业功能,因此也可以与 Neo4j 社区一起使用,并具有适当的版本号。
此连接器当前支持 Spark 2.4.5+ with Scala 2.11 和 Scala 2.12 以及 Spark 3.0+ with Scala 2.12。根据 Spark 和 Scala 版本的组合,您将需要不同的 JAR。JAR 以以下形式命名`neo4j-connector-apache-spark_${scala.version}_${spark.version}_${connector.version}`
问题:
下列说法中,不正确的一项是?
## 答案
Spark连接器在开源社区版上无法使用
## 选项
### A
Spark 连接器可用于从Spark中读取或写入数据
### B
Spark 连接器使用Java驱动程序来连接底层Neo4j图数据库
### C
Spark擅长处理DataFrame,Neo4j擅长处理图数据,使用连接器可以发挥两个的优势
### D
Spark连接器在开源社区版上无法使用
"""
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册