Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
CSDN 技术社区
skill_tree_parser
提交
7c2afe41
S
skill_tree_parser
项目概览
CSDN 技术社区
/
skill_tree_parser
通知
5
Star
4
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
S
skill_tree_parser
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
7c2afe41
编写于
1月 11, 2022
作者:
M
Mars Liu
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
mathmatic parser skip if not success
上级
f9e99f74
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
49 addition
and
8 deletion
+49
-8
README.md
README.md
+1
-1
src/skill_tree/excercises/market_math.py
src/skill_tree/excercises/market_math.py
+11
-7
src/test/exercises/markdown_test.py
src/test/exercises/markdown_test.py
+37
-0
未找到文件。
README.md
浏览文件 @
7c2afe41
...
...
@@ -4,4 +4,4 @@
## 说明
技能树结构(章节、元信息、习题)解释器,支持技能树结构和内容的分析、解释。
CSDN
技能树结构(章节、元信息、习题)解释器,支持技能树结构和内容的分析、解释。
src/skill_tree/excercises/market_math.py
浏览文件 @
7c2afe41
...
...
@@ -69,7 +69,6 @@ def subscript(state):
@
Parsec
def
content
(
state
):
buffer
=
""
side
(
state
)
while
True
:
try
:
tran
=
state
.
begin
()
...
...
@@ -102,12 +101,17 @@ def processor(plain):
tran
=
st
.
begin
()
c
=
one
(
st
)
if
c
==
"$"
:
st
.
rollback
(
tran
)
cnt
=
content
(
st
)
if
cnt
:
buffer
+=
cnt
else
:
raise
ParsecError
(
st
,
f
"unexpect content
{
st
.
data
[
st
.
index
]
}
"
)
index
=
st
.
index
try
:
cnt
=
content
(
st
)
if
cnt
:
buffer
+=
cnt
else
:
buffer
+=
c
except
ParsecError
as
err
:
st
.
commit
(
tran
)
buffer
+=
st
.
data
[
index
:
st
.
index
]
else
:
st
.
commit
(
tran
)
buffer
+=
c
...
...
src/test/exercises/markdown_test.py
浏览文件 @
7c2afe41
...
...
@@ -213,5 +213,42 @@ class MathTestCase(unittest.TestCase):
result
=
processor
(
data
)
self
.
assertEqual
(
result
,
math_processor
(
data
))
spark
=
"""# Neo4j的Apache Spark连接器
Apache Spark 的 Neo4j 连接器旨在使图与 Spark 的集成变得容易。有两种有效的使用连接器的方法:
- **作为数据源**:在 Spark 中将任何节点或关系集作为 DataFrame 读取
- **作为接收器**:将任何 DataFrame 作为节点或关系的集合写入 Neo4j,或者;使用 Cypher 语句将 DataFrame 中的记录处理为您选择的图模式。
由于连接器基于新的 Spark 数据源 API,因此适用于 Python 和 R 等语言的其他 Spark 解释器也可以使用。
此连接器适用于 Neo4j 3.5 和 Neo4j 的整个 4+ 系列,无论是作为单个实例运行、在因果集群模式下运行,还是作为 Neo4j Aura 中的托管服务运行。连接器不依赖于企业功能,因此也可以与 Neo4j 社区一起使用,并具有适当的版本号。
此连接器当前支持 Spark 2.4.5+ with Scala 2.11 和 Scala 2.12 以及 Spark 3.0+ with Scala 2.12。根据 Spark 和 Scala 版本的组合,您将需要不同的 JAR。JAR 以以下形式命名`neo4j-connector-apache-spark_${scala.version}_${spark.version}_${connector.version}`
问题:
下列说法中,不正确的一项是?
## 答案
Spark连接器在开源社区版上无法使用
## 选项
### A
Spark 连接器可用于从Spark中读取或写入数据
### B
Spark 连接器使用Java驱动程序来连接底层Neo4j图数据库
### C
Spark擅长处理DataFrame,Neo4j擅长处理图数据,使用连接器可以发挥两个的优势
### D
Spark连接器在开源社区版上无法使用
"""
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录