Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
airflow-doc-zh
提交
ddfe1378
A
airflow-doc-zh
项目概览
OpenDocCN
/
airflow-doc-zh
10 个月 前同步成功
通知
3
Star
208
Fork
63
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
A
airflow-doc-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
ddfe1378
编写于
12月 22, 2018
作者:
C
chenx
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
修订翻译
上级
a37fd5b3
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
45 addition
and
50 deletion
+45
-50
zh/4.md
zh/4.md
+45
-50
未找到文件。
zh/4.md
浏览文件 @
ddfe1378
# 安装
## 获
得气流
## 获
取Airflow
安装最新稳定版Airflow的最简单方法是使用
`pip`
:
```
pip install apache-airflow
```
您还可以安装Airflow
,支持
`s3`
或
`postgres`
等额外功能
:
您还可以安装Airflow
的一些别的支持功能组件,例如
``s3``
或者
``postgres``
:
```
pip install apache-airflow [ postgres,s3 ]
```
注意
GPL依赖
默认情况下,Apache Airflow的一个依赖项是拉入GPL库('unidecode')。 如果这是一个问题,您可以通过发出
`export SLUGIFY_USES_TEXT_UNIDECODE=yes`
强制非GPL库,然后继续正常安装。 请注意,每次升级都需要指定。 另请注意,如果
<
cite
>
系统
<
/cite
>
中已存在
<
cite
>
unidecode,
<
/cite
>
则仍将使用依赖关系。
## 额外套餐
`apache-airflow`
airflow PyPI基本软件包只安装入门所需的内容。 可以安装子包,具体取决于您的环境中有用的内容。 例如,如果您不需要与Postgres连接,则不必经历安装
`postgres-devel`
yum软件包的麻烦,或者对您正在使用的分发应用的任何等效项。
在幕后,Airflow会对需要这些额外依赖关系的运营商进行条件导入。
这是子包的列表及其启用的内容:
<colgroup><col
width=
"14%"
><col
width=
"42%"
><col
width=
"45%"
></colgroup>
| 分装 | 安装命令 | 使 |
| --- | --- | --- |
| 所有 |
`pip install apache-airflow[all]`
| 所有Airflow功能都为人所知 |
| all_dbs |
`pip install apache-airflow[all_dbs]`
| 所有数据库集成 |
| 异步 |
`pip install apache-airflow[async]`
| Gunicorn的异步工作者课程 |
| 芹菜 |
`pip install apache-airflow[celery]`
| CeleryExecutor |
| cloudant |
`pip install apache-airflow[cloudant]`
| Cloudant钩子 |
| 加密 |
`pip install apache-airflow[crypto]`
| 加密元数据db中的连接密码 |
| devel的 |
`pip install apache-airflow[devel]`
| 最低开发工具要求 |
| devel_hadoop |
`pip install apache-airflow[devel_hadoop]`
| Airflow +对Hadoop堆栈的依赖 |
| 德鲁伊 |
`pip install apache-airflow[druid]`
| 德鲁伊相关的操作员和钩子 |
| gcp_api |
`pip install apache-airflow[gcp_api]`
| Google Cloud Platform挂钩和运营商(使用
`google-api-python-client`
) |
| HDFS |
`pip install apache-airflow[hdfs]`
| HDFS挂钩和运营商 |
| 蜂巢 |
`pip install apache-airflow[hive]`
| 所有Hive相关的运营商 |
| JDBC |
`pip install apache-airflow[jdbc]`
| JDBC钩子和运算符 |
| 克柏伯里 |
`pip install apache-airflow[kerberos]`
| Kerberos集成Kerberized Hadoop |
| LDAP |
`pip install apache-airflow[ldap]`
| 用户的LDAP身份验证 |
| MSSQL |
`pip install apache-airflow[mssql]`
| Microsoft SQL Server操作员和钩子,支持作为Airflow后端 |
| MySQL的 |
`pip install apache-airflow[mysql]`
| MySQL运营商和hook,支持作为Airflow后端。 MySQL服务器的版本必须是5.6.4+。 确切的版本上限取决于
`mysqlclient`
包的版本。 例如,
`mysqlclient`
1.3.12只能与MySQL服务器5.6.4到5.7一起使用。 |
| 密码 |
`pip install apache-airflow[password]`
| 用户密码验证 |
| Postgres的 |
`pip install apache-airflow[postgres]`
| PostgreSQL运算符和钩子,支持作为Airflow后端 |
| 量子点 |
`pip install apache-airflow[qds]`
| 启用QDS(Qubole数据服务)支持 |
| 的RabbitMQ |
`pip install apache-airflow[rabbitmq]`
| RabbitMQ支持作为Celery后端 |
| Redis的 |
`pip install apache-airflow[redis]`
| Redis挂钩和传感器 |
| S3 |
`pip install apache-airflow[s3]`
|
`S3KeySensor`
,
`S3PrefixSensor`
|
| 桑巴 |
`pip install apache-airflow[samba]`
|
`Hive2SambaOperator`
|
| 松弛 |
`pip install apache-airflow[slack]`
|
`SlackAPIPostOperator`
|
| SSH |
`pip install apache-airflow[ssh]`
| SSH钩子和操作员 |
| Vertica的 |
`pip install apache-airflow[vertica]`
| Vertica挂钩支持作为Airflow后端 |
## 启动Airflow数据库
在您运行任务之前,Airflow需要启动数据库。 如果您只是在试验和学习Airflow,您可以坚持使用默认的SQLite选项。 如果您不想使用SQLite,请查看
[
初始化数据库后端
](
howto/initialize-database.html
)
以设置其他数据库。
默认情况下获取Apache Airflow的其中一个依赖项是在GPL库中的('unidecode')。 如果在安装的时候出现问题,您可以通过设置
`export SLUGIFY_USES_TEXT_UNIDECODE=yes`
来强制使用非GPL库,然后继续正常地进行安装。请注意,每次升级都需要指定!另外也请注意,如果系统上已经存在
*unidecode*
,那么这个依赖关系仍将被使用。
## 额外的扩展包
通过PyPI的
`apache-airflow`
命令下载的基本包只含有启动的基础部分内容。您可以根据您环境的需要下载您的扩展包。例如,如果您不需要连接Postgres,那么您就不需要使用yum命令安装
`postgres-devel`
,或者在您使用的系统上面安装postgre应用,并在安装中的经历一些痛苦过程。。
除此之外,Airflow可以按照需求导入这些扩展包来使用。
如下是列举出来的子包列表和他的功能:
| 包名 | 安装命令 | 说明 |
| :------| :------ | :------ |
| all |
`pip install apache-airflow[all]`
| 所有Airflow功能 |
| all_dbs |
`pip install apache-airflow[all_dbs]`
| 所有集成的数据库 |
| async |
`pip install apache-airflow[async]`
| Gunicorn的异步worker classes |
| devel |
`pip install apache-airflow[devel]`
| 最小开发工具要求 |
| devel_hadoop |
`pip install apache-airflow[devel_hadoop]`
| Airflow + Hadoop stack 的依赖 |
| celery |
`pip install apache-airflow[celery]`
| CeleryExecutor |
| crypto |
`pip install apache-airflow[crypto]`
| 加密元数据db中的连接密码 |
| druid |
`pip install apache-airflow[druid]`
| Druid.io 相关的 operators 和 hooks |
| gcp_api |
`pip install apache-airflow[gcp_api]`
| Google 云平台 hooks 和operators(使用
`google-api-python-client`
) |
| jdbc |
`pip install apache-airflow[jdbc]`
| JDBC hooks 和 operators |
| hdfs |
`pip install apache-airflow[hdfs]`
| HDFS hooks 和 operators |
| hive |
`pip install apache-airflow[hive]`
| 所有Hive相关的 operators |
| kerberos |
`pip install apache-airflow[kerberos]`
| Kerberos集成Kerberized Hadoop |
| ldap |
`pip install apache-airflow[ldap]`
| 用户的LDAP身份验证 |
| mssql |
`pip install apache-airflow[mssql]`
| Microsoft SQL Server operators 和 hook,作为Airflow后端支持 |
| mysql |
`pip install apache-airflow[mysql]`
| MySQL operators 和 hook,支持作为Airflow后端。 MySQL服务器的版本必须是5.6.4+。 确切的版本上限取决于
`mysqlclient`
包的版本。 例如,
`mysqlclient`
1.3.12只能与MySQL服务器5.6.4到5.7一起使用。 |
| password |
`pip install apache-airflow[password]`
| 用户密码验证 |
| postgres |
`pip install apache-airflow[postgres]`
| Postgres operators 和 hook,作为Airflow后端支持 |
| qds |
`pip install apache-airflow[qds]`
| 启用QDS(Qubole数据服务)支持 |
| rabbitmq |
`pip install apache-airflow[rabbitmq]`
| rabbitmq作为Celery后端支持 |
| s3 |
`pip install apache-airflow[s3]`
|
`S3KeySensor`
,
`S3PrefixSensor`
|
| samba |
`pip install apache-airflow[samba]`
|
`Hive2SambaOperator`
|
| slack |
`pip install apache-airflow[slack]`
|
`SlackAPIPostOperator`
|
| vertica |
`pip install apache-airflow[vertica]`
| 做为Airflow后端的 Vertica hook 支持 |
| cloudant |
`pip install apache-airflow[cloudant]`
| Cloudant hook |
| redis |
`pip install apache-airflow[redis]`
| Redis hooks 和 sensors |
## 初始化Airflow数据库
在您运行任务之前,Airflow需要初始化数据库。 如果您只是在试验和学习Airflow,您可以坚持使用默认的SQLite选项。 如果您不想使用SQLite,请查看
[
初始化数据库后端
](
howto/initialize-database.html
)
以设置其他数据库。
配置完成后,您需要先初始化数据库,然后才能运行任务:
```
airflow initdb
```
\ No newline at end of file
```
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录