Skip to content
Projects
Groups
Snippets
Help
Loading...
Help
Contribute to GitLab
Sign in / Register
Toggle navigation
D
dlink
Project
Project
Details
Activity
Cycle Analytics
Repository
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
Issues
0
Issues
0
List
Board
Labels
Milestones
Merge Requests
0
Merge Requests
0
CI / CD
CI / CD
Pipelines
Jobs
Schedules
Charts
Wiki
Wiki
Snippets
Snippets
Members
Members
Collapse sidebar
Close sidebar
Activity
Graph
Charts
Create a new issue
Jobs
Commits
Issue Boards
Open sidebar
zhaowei
dlink
Commits
44ce1e47
Unverified
Commit
44ce1e47
authored
Apr 04, 2022
by
xiaoguaiguai
Committed by
GitHub
Apr 04, 2022
Browse files
Options
Browse Files
Download
Plain Diff
Merge pull request #331 from zhu-mingye/dev
[Optimize-330][docs] Optimize official documents
parents
84373b29
9fb5144c
Changes
25
Hide whitespace changes
Inline
Side-by-side
Showing
25 changed files
with
241 additions
and
233 deletions
+241
-233
README.en-US.md
README.en-US.md
+7
-12
README.zh-CN.md
README.zh-CN.md
+7
-12
_sidebar.md
docs/zh-CN/_sidebar.md
+3
-2
Hotkey.md
docs/zh-CN/administrator-guide/Hotkey.md
+26
-25
metadata.md
docs/zh-CN/administrator-guide/metadata.md
+17
-20
cluster_manage.md
...h-CN/administrator-guide/registerCenter/cluster_manage.md
+18
-18
datasource_manage.md
...N/administrator-guide/registerCenter/datasource_manage.md
+3
-3
document_manager.md
...CN/administrator-guide/registerCenter/document_manager.md
+1
-1
jar_manager.md
docs/zh-CN/administrator-guide/registerCenter/jar_manager.md
+5
-5
warning.md
docs/zh-CN/administrator-guide/registerCenter/warning.md
+21
-14
Flink_Setting.md
...zh-CN/administrator-guide/system_setting/Flink_Setting.md
+12
-11
user_management.md
...-CN/administrator-guide/system_setting/user_management.md
+23
-21
openapi.md
docs/zh-CN/api/openapi.md
+26
-26
architecture.md
docs/zh-CN/architecture.md
+1
-1
commit_code.md
docs/zh-CN/developer-guide/commit_code.md
+1
-1
dinky_overview.md
docs/zh-CN/dinky_overview.md
+25
-22
Flink_CDC_kafka_Multi_source_merger.md
docs/zh-CN/extend/Flink_CDC_kafka_Multi_source_merger.md
+7
-7
datasource.md
docs/zh-CN/extend/datasource.md
+2
-2
hive.md
docs/zh-CN/extend/hive.md
+11
-11
comminicate.md
docs/zh-CN/others/comminicate.md
+5
-1
plans.md
docs/zh-CN/others/plans.md
+6
-8
thanks.md
docs/zh-CN/others/thanks.md
+1
-1
yarnsubmit.md
docs/zh-CN/practice/yarnsubmit.md
+10
-8
download.md
docs/zh-CN/quick_start/download.md
+1
-1
dinky-0.6.1.md
docs/zh-CN/release_notes/dinky-0.6.1.md
+2
-0
No files found.
README.en-US.md
View file @
44ce1e47
...
...
@@ -92,17 +92,12 @@ Dinky 基于 Apache Flink 实现 Dlink ,增强 Flink 的应用与体验,探
## 近期计划
-
多租户及命名空间
-
全局血缘与影响分析
-
统一元数据管理
-
Flink 元数据持久化
-
多版本 Flink-Client Server
-
整库千表同步
-
[
]
多租户及命名空间
-
[
]
全局血缘与影响分析
-
[
]
统一元数据管理
-
[
]
Flink 元数据持久化
-
[
]
多版本 Flink-Client Server
-
[
]
整库千表同步
## 参与贡献
...
...
@@ -151,4 +146,4 @@ Dinky 基于 Apache Flink 实现 Dlink ,增强 Flink 的应用与体验,探
## 版权
请参考
[
LICENSE
](
https://github.com/DataLinkDC/dlink/blob/main/LICENSE
)
文件。
\ No newline at end of file
请参考
[
LICENSE
](
https://github.com/DataLinkDC/dlink/blob/main/LICENSE
)
文件。
README.zh-CN.md
View file @
44ce1e47
...
...
@@ -92,17 +92,12 @@ Dinky 基于 Apache Flink 实现 Dlink ,增强 Flink 的应用与体验,探
## 近期计划
-
多租户及命名空间
-
全局血缘与影响分析
-
统一元数据管理
-
Flink 元数据持久化
-
多版本 Flink-Client Server
-
整库千表同步
-
[
]
多租户及命名空间
-
[
]
全局血缘与影响分析
-
[
]
统一元数据管理
-
[
]
Flink 元数据持久化
-
[
]
多版本 Flink-Client Server
-
[
]
整库千表同步
## 参与贡献
...
...
@@ -151,4 +146,4 @@ Dinky 基于 Apache Flink 实现 Dlink ,增强 Flink 的应用与体验,探
## 版权
请参考
[
LICENSE
](
https://github.com/DataLinkDC/dlink/blob/main/LICENSE
)
文件。
\ No newline at end of file
请参考
[
LICENSE
](
https://github.com/DataLinkDC/dlink/blob/main/LICENSE
)
文件。
docs/zh-CN/_sidebar.md
View file @
44ce1e47
...
...
@@ -9,7 +9,7 @@
-
编译与部署
-
[
编译
](
/zh-CN/quick_start/build.md
)
-
[
部署
](
/zh-CN/quick_start/deploy.md
)
-
[
d
inky概览
](
/zh-CN/dinky_overview.md
)
-
[
D
inky概览
](
/zh-CN/dinky_overview.md
)
-
快速入门指南
-
FlinkSQL作业快速入门
-
其他数据源作业快速入门
...
...
@@ -85,4 +85,5 @@
-
[
常见问题
](
/zh-CN/FAQ.md
)
-
[
致谢
](
/zh-CN/others/thanks.md
)
-
[
交流与贡献
](
/zh-CN/others/comminicate.md
)
-
[
roadmap
](
/zh-CN/roadmap.md
)
-
[
RoadMap
](
/zh-CN/roadmap.md
)
-
[
近期计划
](
/zh-CN/others/plans.md
)
docs/zh-CN/administrator-guide/Hotkey.md
View file @
44ce1e47
**在数据开发编辑器内可使用以下快捷键**
| 功能描述 | 快捷键 | 备注 |
|---------| -------------------------- | ------ |
| 全屏开发 |
`F2`
| |
| 功能描述 | 快捷键 | 备注 |
| ---------------- | -------------------------- | ------ |
| 全屏开发 |
`F2`
| |
| 关闭弹框及全屏 |
`Esc`
| |
| 保存 |
`Ctrl + S`
| |
| 校验 |
`Alt + 2`
| |
| 美化 |
`Alt + 3`
| |
| 搜索 |
`Ctrl + F`
| |
| 替换 |
`Ctrl + H`
| |
| 撤销 |
`Ctrl + Z`
| |
| 重做 |
`Ctrl + Y`
| |
| 注释 |
`Ctrl + /`
| |
| 缩进 |
`选中 + Tab`
| |
| 取消缩进 |
`选中 + Shift + Tab`
| |
| 选中后续 |
`Shift + Alt + Right`
| |
| 格式化 |
`Shift + Alt + F`
| |
| 编辑多行 |
`Ctrl + Shift + Up/Down`
| |
| 复制一行 |
`Shift + Alt + Up/Down`
| |
| 删除一行 |
`Ctrl + Shift + K`
| |
| 匹配下一个 |
`Ctrl + F3`
| |
| 匹配上一个 |
`Ctrl + Shift + F3`
| |
| 保存
|
`Ctrl + S`
| |
| 校验
|
`Alt + 2`
| |
| 美化
|
`Alt + 3`
| |
| 搜索
|
`Ctrl + F`
| |
| 替换
|
`Ctrl + H`
| |
| 撤销
|
`Ctrl + Z`
| |
| 重做
|
`Ctrl + Y`
| |
| 注释
|
`Ctrl + /`
| |
| 缩进
|
`选中 + Tab`
| |
| 取消缩进
|
`选中 + Shift + Tab`
| |
| 选中后续
|
`Shift + Alt + Right`
| |
| 格式化
|
`Shift + Alt + F`
| |
| 编辑多行
|
`Ctrl + Shift + Up/Down`
| |
| 复制一行
|
`Shift + Alt + Up/Down`
| |
| 删除一行
|
`Ctrl + Shift + K`
| |
| 匹配下一个
|
`Ctrl + F3`
| |
| 匹配上一个
|
`Ctrl + Shift + F3`
| |
| 前往下一个高亮 |
`F7`
| |
| 前往上一个高亮 |
`Shift +F7`
| |
| 前面追加换行 |
`Ctrl + Shift + End`
| |
| 追加换行 |
`Ctrl + End`
| |
| 上下换位 |
`Alt + Up/Down`
| |
| 折叠/展开 |
`Ctrl + Shift + [/]`
| |
| 更多快捷键 |
`F1`
| |
| 前面追加换行
|
`Ctrl + Shift + End`
| |
| 追加换行
|
`Ctrl + End`
| |
| 上下换位
|
`Alt + Up/Down`
| |
| 折叠/展开
|
`Ctrl + Shift + [/]`
| |
| 更多快捷键
|
`F1`
| |
docs/zh-CN/administrator-guide/metadata.md
View file @
44ce1e47
当用户查看或者使用数据源中的
DDL或者DML,可通过元数据中心获取数据源中的相关DDL或者
DML。目前元数据中心包含:
当用户查看或者使用数据源中的
DDL 或者 DML ,可通过元数据中心获取数据源中的相关 DDL 或者
DML。目前元数据中心包含:
-
**表信息**
-
**字段信息**
-
**SQL生成**
-
**SQL
生成**
其中在SQL生成中又包括:
-
**FlinkDDL语句**
-
**SELECT语句**
-
**SQLDDL语句**
-
**FlinkDDL
语句**
-
**SELECT
语句**
-
**SQLDDL
语句**
首先进入
FlinkSQL Studio中的元数据
,选择已经配置好的数据源,会出现数据源对应的schema。
首先进入
**数据开发**
中的
**元数据**
,选择已经配置好的数据源,会出现数据源对应的schema。


出现以上 schema 后,查看 schema 下的表,
**右键单击 schema 下的表**
即可看到表信息,字段信息及 SQL 生成。

### 表信息

### 字段信息

### SQL生成




出现以上schema后,查看schema下的表,右键单击schema下的表即可看到表信息,字段信息及SQL生成。



如何配置数据源请参考
[
数据源管理
](
/zh-CN/administrator-guide/registerCenter/datasource_manage.md
)
。
**如何配置数据源请参考**
[
数据源管理
](
/zh-CN/administrator-guide/registerCenter/datasource_manage.md
)
。
docs/zh-CN/administrator-guide/registerCenter/cluster_manage.md
View file @
44ce1e47
当用户提交
FlinkSQL作业时,首先要保证安装了Flink集群。Flink
当前支持的集群模式包括:
当用户提交
FlinkSQL 作业时,首先要保证安装了 Flink 集群。Flink
当前支持的集群模式包括:
-
StandAlone集群
-
Yarn集群
-
Kubernetes集群
-
StandAlone
集群
-
Yarn
集群
-
Kubernetes
集群
对于以上的三种集群而言,Dinky为用户提供了两种集群管理方式,一种是集群实例管理,一种是集群配置管理。
对于以上的三种集群而言,Dinky
为用户提供了两种集群管理方式,一种是集群实例管理,一种是集群配置管理。
**需要说明的是:**
-
StandAlone集群适用于既可以做为查询使用,又可以将作业异步提交到远程集群
-
Yarn Session
和Kubernetes Session
适用于既可以做为查询使用,又可以将作业异步提交到远程集群
-
Yarn Perjob,Yarn Application
和Kubernetes Application
适用于异步提交
-
StandAlone
集群适用于既可以做为查询使用,又可以将作业异步提交到远程集群
-
Yarn Session
和 Kubernetes Session
适用于既可以做为查询使用,又可以将作业异步提交到远程集群
-
Yarn Perjob,Yarn Application
和 Kubernetes Application
适用于异步提交
## 集群实例管理
集群实例管理适用于
StandAlone,Yarn Session和Kubernetes Session
这三种类型配置。
集群实例管理适用于
StandAlone,Yarn Session 和 Kubernetes Session
这三种类型配置。
### 集群配置
首先进入
注册中心的集群管理中的集群实例管理,新建一个集群实例,点击新建
,添加Flink集群,参数配置完成后,点击提交即可。
首先进入
**注册中心**
>
**集群管理**
>
**集群实例管理**
,新建一个
**集群实例**
,点击
**新建**
,添加Flink集群,参数配置完成后,点击提交即可。

...
...
@@ -32,11 +32,11 @@
-
**JobManager HA地址:**
JobManager的RestAPI地址,当有多个RestAPI地址时。采用英文逗号隔开
-
**注释:**
自定义
当集群实例配置完成后,点击
心跳
,会出现检测心跳
当集群实例配置完成后,点击
**心跳**
,会出现检测心跳

点击
回收
,会将过去的集群实例进行回收
点击
**回收**
,会将过去的集群实例进行回收

...
...
@@ -46,7 +46,7 @@
当集群配置完成后,用户可以对集群实例做编辑修改。
首先进入
注册中心集群实例管理,在列表中找到对应的集群实例,点击"编辑"后
,编辑集群
首先进入
**注册中心**
>
**集群实例管理**
,在列表中找到对应的集群实例,点击
**编辑**
,编辑集群

...
...
@@ -56,7 +56,7 @@
用户可以对所添加的集群实例进行删除。
首先进入
注册中心中的集群实例管理,在列表中找到对应的集群实例,点击"删除"
后,删除集群!
首先进入
入
**注册中心**
>
**集群实例管理**
,在列表中找到对应的集群实例,点击
**删除**
后,删除集群!

...
...
@@ -74,7 +74,7 @@
### 集群配置
首先进入
注册中心的集群管理中的集群配置管理,点击"新建"后,可以创建集群配置,参数配置完成后,点击"测试"及"完成"
即可。
首先进入
**注册中心**
>
**集群管理**
>
**集群配置管理**
,点击
**新建**
后,可以创建集群配置,参数配置完成后,点击
**测试**
及
**完成**
即可。

...
...
@@ -98,7 +98,7 @@
-
**注释:**
自定义
-
**是否启用:**
默认禁用,需要开启
参数配置完成后,点击
"测试"
,会显示测试连接成功。
参数配置完成后,点击
**测试**
,会显示测试连接成功。

...
...
@@ -108,7 +108,7 @@
当集群配置完成后,用户可以对集群配置做编辑修改。
首先进入
注册中心集群配置管理,在列表中找到对应的集群名称,点击"编辑"
后,维护集群配置
首先进入
**注册中心**
>
**集群配置管理**
,在列表中找到对应的集群名称,点击
**编辑**
后,维护集群配置

...
...
@@ -118,7 +118,7 @@
用户可以对所添加的集群配置进行删除。
首先进入
注册中心中的集群配置管理,,在列表中找到对应的集群,点击"删除"
后,删除集群
首先进入
**注册中心**
>
**集群配置管理**
,,在列表中找到对应的集群,点击
**删除**
后,删除集群

...
...
docs/zh-CN/administrator-guide/registerCenter/datasource_manage.md
View file @
44ce1e47
...
...
@@ -3,7 +3,7 @@

## 创建数据源
当用户使用
Dinky做为数据开发工具时,用户首先需要进入
<span
style=
''
>
注册中心数据源管理
</span>
,新建数据库连接
即可。
当用户使用
Dinky 做为数据开发工具时,用户首先需要进入
**注册中心**
>
**数据源管理**
,点击
**新建**
即可。

...
...
@@ -23,10 +23,10 @@
**Flink连接配置:**
避免私密信息泄露,同时复用连接配置,在FlinkSQL中可使用${名称}来加载连接配置,如${ods},说明:名称指的是英文唯一标识,即如图所示的名称。注意需要开启全局变量(原片段机制);
**Flink连接模板:**
Flink连接模板作用是为生成FlinkSQL DDL而扩展的功能。其中
${schemaName}动态获取数据库,${tableName}动态获取表名称
。更多参数请参考
[
Flink官网
](
https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/table/overview/
)
;
**Flink连接模板:**
Flink连接模板作用是为生成FlinkSQL DDL而扩展的功能。其中
**${schemaName}动态获取数据库**
,
**${tableName}动态获取表名称**
。更多参数请参考
[
Flink官网
](
https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/table/overview/
)
;
**注释:**
自定义;
**是否启用:**
默认禁用,需要开启;
当前数据库统一使用如上定义的参数名称配置数据源连接。当前支持的数据源可参考
[
扩展数据源
](
/zh-CN/extend/datasource.md
)
章节。
当前数据库统一使用如上定义的参数名称配置数据源连接。当前支持的数据源可参考
[
扩展数据源
](
/zh-CN/extend/datasource.md
)
章节。
docs/zh-CN/administrator-guide/registerCenter/document_manager.md
View file @
44ce1e47
## 文档管理
List
## 文档管理
列表

...
...
docs/zh-CN/administrator-guide/registerCenter/jar_manager.md
View file @
44ce1e47
当用户使用
jar包提交Flink应用时,可以在jar包管理
中对所需程序进行管理。
当用户使用
jar 包提交 Flink 应用时,可以在 j
**ar管理**
中对所需程序进行管理。
## Jar包配置
首先进入
注册中心的jar管理,点击“新建”,进入创建Jar配置
界面。
首先进入
**注册中心**
>
**jar管理**
,点击
**新建**
,进入
**创建Jar配置**
界面。

...
...
@@ -14,7 +14,7 @@
-
**Jar配置:**
-
默认:
**
User App
-
**文件路径:**
指定
HDFS
上的文件路径,即Flink提交的jar包程序
-
**文件路径:**
指定
HDFS
上的文件路径,即Flink提交的jar包程序
-
**启动类:**
指定可执行 Jar 的启动类,(可选)
-
**执行参数:**
指定可执行 Jar 的启动类入参,(可选)
-
**基本配置:**
...
...
@@ -31,7 +31,7 @@ Jar包配置完成后,就可以正常提交运行。
用户可以对所添加的可执行Jar包配置做编辑修改。
首先进入
注册中心的jar包管理中,点击编辑
,即可对可执行Jar配置进行修改。
首先进入
**注册中心**
>
**jar管理**
,点击
**编辑**
,即可对可执行Jar配置进行修改。

...
...
@@ -45,7 +45,7 @@ Jar包配置完成后,就可以正常提交运行。
用户可以对所添加的可执行Jar包配置做删除。
首先进入
注册中心的jar包管理中,点击删除
,即可对可执行Jar配置进行删除。
首先进入
**注册中心**
>
**jar管理**
,点击
**删除**
,即可对可执行Jar配置进行删除。

...
...
docs/zh-CN/administrator-guide/registerCenter/warning.md
View file @
44ce1e47
如何创建报警实例及报警组,在0.6版本以后,用户可以创建报警实例及报警组,监控
FlinkSQL
作业。一个报警组可以使用多个报警实例,用户就可以进一步收到报警通知。收到的报警通知如下:
如何创建报警实例及报警组,在0.6版本以后,用户可以创建报警实例及报警组,监控
FlinkSQL
作业。一个报警组可以使用多个报警实例,用户就可以进一步收到报警通知。收到的报警通知如下:
-
unknow
-
unknow
n
-
stop
-
cancel
-
finished
首先要进入
<span
style=
""
>
注册中心
</span>
,选择
<span>
报警管理
</span>
,然后选择左侧的报警实例管理,创建一个告警实例。然后选择对应的报警插件(当前支持钉钉及企业微信)
。然后选择报警组管理,创建一个报警组。
首先要进入
**注册中心**
>
**报警管理**
,然后选择左侧的报警实例管理,创建一个告警实例。然后选择对应的报警插件
。然后选择报警组管理,创建一个报警组。
目前Dlinky支持的报警插件有:
-
**[钉钉](#钉钉)方式告警 :**
WebHook
-
**[企业微信](#企业微信)方式告警 :**
包含
**应用**
**群聊**
-
**[飞书](#飞书)方式告警 :**
WebHook
-
**[邮箱](#邮箱)方式告警 :**
通过邮件发送报警通知
## 报警实例管理
新建一个报警实例,选择新建
### 告警实例列表

### 创建告警实例
**注册中心**
>
**报警管理**
,选择
**新建**

点击
<span>
钉钉或者企业微信
</span>
,创建报警实例配置。报警实例配置完成,就可以创建报警组。
点击
以上告警实例类型
,创建报警实例配置。报警实例配置完成,就可以创建报警组。
## 报警组管理
...
...
@@ -27,7 +34,7 @@
## 钉钉
如果用户使用钉钉进行报警,请
在报警实例中选择报警实例管理,选择新建
<span>
钉钉
</span>
报警实例。钉钉的配置如下:
如果用户使用钉钉进行报警,请
进入
**注册中心**
>
**报警管理**
>
**报警实例管理**
,点击
**新建**
选择
**钉钉**
报警实例。

...
...
@@ -35,12 +42,12 @@
-
**名称:**
自定义;
-
**地址:**
Webhook,格式如下:https://oapi.dingtalk.com/robot/send?access_token=???????
-
**关键字:**
安全设置的自定义关键词,钉钉关键字和
dinky
中的关键字保持一致即可;
-
**关键字:**
安全设置的自定义关键词,钉钉关键字和
Dinky
中的关键字保持一致即可;
-
**密令:**
安全设置的加签;
-
**开启代理:**
默认否(一般默认)
-
**@所有人:**
默认禁用,需要开启;
-
**是否启用:**
默认禁用,需要开启;
-
**展示方式类型:**
支持
MarkDown
和文本;
-
**展示方式类型:**
支持
MarkDown
和文本;
**说明:**
自定义机器人发送消息时,在“被@人列表”里面的人员收到该消息时,会有@消息提醒。
...
...
@@ -48,7 +55,7 @@
## 企业微信
如果用户使用企业微信进行报警,请
在报警实例中选择报警实例管理,选择新建
<span>
企业微信
</span>
报警实例。
如果用户使用企业微信进行报警,请
进入
**注册中心**
>
**报警管理**
>
**报警实例管理**
,点击
**新建**
选择
**企业微信**
报警实例。
### 微信企业应用配置
...
...
@@ -63,7 +70,7 @@
-
**发送消息:**
接口中定义的msg,如{"touser":"{toUser}","agentid":{agentId}","msgtype":"{showType}","{showType}":{"content":"{msg}"}}
-
**代理ID:**
询问企业微信管理员即可;
-
**发送方式:**
应用;
-
**展示方式类型:**
支持
MarkDown
和文本;
-
**展示方式类型:**
支持
MarkDown
和文本;
-
**是否启用:**
默认禁用,需要开启;
### 微信企业群聊配置
...
...
@@ -93,7 +100,7 @@
## 飞书
如果用户使用飞书进行报警,请
在报警实例中选择报警实例管理,选择新建
<span>
飞书
</span>
报警实例。
如果用户使用飞书进行报警,请
进入
**注册中心**
>
**报警管理**
>
**报警实例管理**
,点击
**新建**
选择
**飞书**
报警实例。

...
...
@@ -102,7 +109,7 @@
-
**名称:**
自定义;
-
**发送方式:**
群聊;
-
**WebHook地址:**
Webhook地址,如https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxxxxx
-
**WebHook地址:**
Webhook
地址,如https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxxxxx
-
**关键字:**
作为发送信息的title 标记;
-
**@所有人:**
默认禁用,如果@所有人需要开启;
-
**被@用户:**
飞书的用户ID;
...
...
@@ -116,7 +123,7 @@
## 邮箱
如果用户使用邮箱进行报警,请
在报警实例中选择报警实例管理,选择新建
<span>
邮箱
</span>
报警实例。
如果用户使用邮箱进行报警,请
进入
**注册中心**
>
**报警管理**
>
**报警实例管理**
,点击
**新建**
选择
**邮箱**
报警实例。

...
...
docs/zh-CN/administrator-guide/system_setting/Flink_Setting.md
View file @
44ce1e47
当用户使用
**Application 模式**
以及
**RestAPI**
时,需要在
**Flink 设置**
页面进行相关修改。
当用户使用Application模式以及RestAPI时,需要在Flink设置页面进行相关修改
。
另外
**Application 模式**
支持
**Yarn**
和
**Kubernetes**
,启用
**RestAPI**
后,Flink 任务的 savepoint,停止等操作都将会通过 JobManager 的 RestAPI 进行
。
另外Application模式支持Yarn和Kubernetes,启用RestAPI后,Flink任务的savepoint,停止等操作都将会通过JobManager的RestAPI进行
。
首先进入
**系统设置**
中的
**Flink设置**
,对参数配置进行修改即可
。
首先进入系统设置中的Flink设置,对参数配置进行修改即可。


**参数配置说明:**
**参数配置说明:**
-
**提交FlinkSQL的Jar文件路径:**
此参数是为了引入Dinky中提交Application模式的jar包文件,需要上传到相应的HDFS路径,jar包在dinky解压根目录下的jar文件夹下;
-
**提交FlinkSQL的Jar的主类入参:**
默认为空,不需要修改,配合提交FlinkSQL的Jar文件路径使用;
-
**提交FlinkSQL的Jar的主类:**
默认com.dlink.app.MainApp,不需要修改,配合提交FlinkSQL的Jar文件路径使用;
-
**使用RestAPI:**
默认开启,开启后FlinkSQL停止等操作通过此参数进行;
-
**FlinkSQL语句分隔符:**
默认是分号,即";"。多个语句间可以用分号隔开;
\ No newline at end of file
-
**提交 FlinkSQL 的 Jar文件路径:**
此参数是为了引入 Dinky 中提交
**Application 模式**
的 jar包文件,
-
**服务器部署方式:**
需要上传到相应的HDFS路径,jar包在 Dinky 解压根目录下的jar文件夹下;eg: hdfs:///dlink/jar/dlink-app-${dlink-version}-jar-with-dependencies.jar
-
**本地调试方式:**
需要本地 install后 将其设置为eg: $idea_work_dir/dlink/dlink-app/target/dlink-app-${dlink-version}-jar-with-dependencies.jar
-
**提交 FlinkSQL 的 Jar 的主类入参:**
默认为空,不需要修改,配合提交FlinkSQL的Jar文件路径使用;
-
**提交 FlinkSQL 的 Jar 的主类:**
默认 com.dlink.app.MainApp,不需要修改,配合提交FlinkSQL的Jar文件路径使用;
-
**使用 RestAPI:**
默认开启,开启后 FlinkSQL 停止等操作通过此参数进行;
-
**FlinkSQL 语句分隔符:**
默认是分号,即";"。多个语句间可以用分号隔开; 此项支持自定义 eg:
**;\r\n**
\ No newline at end of file
docs/zh-CN/administrator-guide/system_setting/user_management.md
View file @
44ce1e47
系统设置中的用户管理功能,包含添加或删除用户、修改密码等。此用户管理中的用户仅限于登录
Dinky
界面。
系统设置中的用户管理功能,包含添加或删除用户、修改密码等。此用户管理中的用户仅限于登录
Dinky
界面。
**默认用户名/密码:**
admin/admin
## 用户管理

## 添加用户
当用户使用非admin用户登录时,可以添加一个新用户,通过新用户登录Dinky。
-
**普通用户**
创建好后,
**默认密码**
是
**123456**
,
-
如果需要修改密码,请查看
[
修改密码
](
#密码修改
)
。
首先要进入
<span
style=
""
>
系统设置
</span>
,选择
<span>
用户管理
</span>
,新建
。
进入
**系统设置**
,选择
**用户管理**
,
**新建**
。


进入后,会出现用户创建界面

**参数配置:**
...
...
@@ -24,45 +27,44 @@
## 删除用户
但用户不使用某个创建的普通用户时,可以进行删除。首先进入
<span
style=
""
>
系统设置
</span>
,选择
<span>
用户管理
</span>
,点击对应用户的删除
即可。
但用户不使用某个创建的普通用户时,可以进行删除。首先进入
**系统设置**
,选择
**用户管理**
,点击对应用户的
**删除**
即可。




**说明:**
admin
用户在dinky
是最高权限用户,无法删除,只能修改密码
**说明:**
admin
用户在 Dinky
是最高权限用户,无法删除,只能修改密码
## 用户配置及编辑
用户配置或者编辑是为了用户修改用户的基本信息,首先进入
<span
style=
""
>
系统设置
</span>
,选择
<span>
用户管理
</span>
,点击对应用户的配置或者编辑。接下来就可以维护用户信息。

用户配置或者编辑是为了用户修改用户的基本信息,首先进入
**系统设置**
,选择
**用户管理**
,点击对应用户的
**配置**
或者
**编辑**
。接下来就可以维护用户信息。


## 密码修改
普通用户创建好后,默认密码是123456,admin用户密码是admin。为避免信息泄露,在生产环境建议用户修改密码。
-
普通用户创建好后,
**默认密码**
是
**123456**
,
-
**admin 用户**
密码是
**admin**
。为避免信息泄露,
**在生产环境建议用户修改密码**
。
首先进入
<span
style=
""
>
系统设置
</span>
,选择
<span>
用户管理
</span>
,点击对应用户的密码修改即可。
首先进入
**系统设置**
,选择
**用户管理**
,点击对应用户的密码修改即可。




当密码修改成功后,用户可以选择界面
右上角的退出登录,既可通过新密码登录
Dinky。
当密码修改成功后,用户可以选择界面
**右上角**
的
**退出登录**
,既可通过新密码登录
Dinky。




...
...
docs/zh-CN/api/openapi.md
View file @
44ce1e47
Dinky
平台提供OpenAPI能力,通过调用Dinky的OpenAPI可以使用Dinky的功能,实现应用和Dinky
的集成和交互。
Dinky
平台提供 OpenAPI 能力,通过调用 Dinky 的 OpenAPI 可以使用 Dinky 的功能,实现应用和 Dinky
的集成和交互。
### 背景
Dinky
的OpenAPI提供了10多种API功能。通过调用API,可以快速进行操作和系统集成对接等工作,提高数据开发效率,满足企业定制化需求。您还可以通过开放平台,轻松获取OpenAPI
的使用情况。
Dinky
的O penAPI 提供了 10 多种 API 功能。通过调用 API,可以快速进行操作和系统集成对接等工作,提高数据开发效率,满足企业定制化需求。您还可以通过开放平台,轻松获取 OpenAPI
的使用情况。
当前支持的
OpenAPI
包括如下:
当前支持的
OpenAPI
包括如下:
| 序号 | 执行模式 | 类型名称 | 作用 |
| :--: | :------------: | :----------------: | :------------------------------: |
| 1 | explainSql | cancel | 调用取消
FlinkSQL
作业 |
| 2 | explainSql | statement | 调用
statement
语句 |
| 3 | executeJar | yarn-application | 调用执行
yarn-a
pplication jar包 |
| 4 | executeSql | kubernetes-session | 调用执行作业在
k8ssession
上运行 |
| 5 | executeSql | local | 调用执行作业在
local
上运行 |
| 6 | executeSql | yarn-per-job | 调用执行作业在
yarn-per-job
上运行 |
| 7 | executeSql | standalone | 调用执行作业在
standalone
上运行 |
| 8 | executeSql | yarn-session | 调用执行作业在
yarn-session
上运行 |
| 1 | explainSql | cancel | 调用取消
FlinkSQL
作业 |
| 2 | explainSql | statement | 调用
statement
语句 |
| 3 | executeJar | yarn-application | 调用执行
Yarn-A
pplication jar包 |
| 4 | executeSql | kubernetes-session | 调用执行作业在
K8ssession
上运行 |
| 5 | executeSql | local | 调用执行作业在
Local
上运行 |
| 6 | executeSql | yarn-per-job | 调用执行作业在
Yarn-per-job
上运行 |
| 7 | executeSql | standalone | 调用执行作业在
Standalone
上运行 |
| 8 | executeSql | yarn-session | 调用执行作业在
Yarn-session
上运行 |
| 9 | getJobData | | |
| 10 | getJobPlan | statement | 调用获取执行计划 |
| 11 | getStreamGraph | statement | 调用获取
Flink DAG
图 |
| 12 | savepoint | | 调用手动保存
c
heckpoints |
| 13 | savepointTask | | 调用并触发
s
avepoint |
| 11 | getStreamGraph | statement | 调用获取
Flink DAG
图 |
| 12 | savepoint | | 调用手动保存
C
heckpoints |
| 13 | savepointTask | | 调用并触发
S
avepoint |
| 14 | submitTask | | 作业调度 |
### 示例
**explainSql**
explainSql
包括FlinkSQL作业取消和statement
语句执行
explainSql
包括 FlinkSQL 作业取消和 statement
语句执行
FlinkSQL
作业
cancel:
FlinkSQL
作业
cancel:
**explainSql**
explainSql
包括F
cancel
explainSql
包括
cancel
```
http://127.0.0.1:8888/openapi/explainSql
...
...
@@ -55,7 +55,7 @@ http://127.0.0.1:8888/openapi/explainSql
}
```
statement语句执行:
statement
语句执行:
```
http://127.0.0.1:8888/openapi/explainSql
...
...
@@ -80,7 +80,7 @@ statement语句执行:
**executeJar**
yarn-application jar
包调用并提交
Yarn-application jar
包调用并提交
```
http://127.0.0.1:8888/openapi/executeJar
...
...
@@ -114,9 +114,9 @@ yarn-application jar包调用并提交
**executeSql**
executeSql
提交执行作业包括local,kubernetes-session,yarn-per-job,standalone,y
arn-session
executeSql
提交执行作业包括 Local,Kubernetes-session,Yarn-per-job,Standalone,Y
arn-session
l
ocal:
L
ocal:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -145,7 +145,7 @@ local:
}
```
k
ubernetes-session:
K
ubernetes-session:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -175,7 +175,7 @@ kubernetes-session:
}
```
y
arn-per-job:
Y
arn-per-job:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -214,7 +214,7 @@ http://127.0.0.1:8888/openapi/executeSql
}
```
y
arn-session:
Y
arn-session:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -244,7 +244,7 @@ yarn-session:
}
```
s
tandalone:
S
tandalone:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -366,4 +366,4 @@ http://127.0.0.1:8888/openapi/savepointTask
http://127.0.0.1:8888/openapi/submitTask?id=1
```
OpenAPI包括元数据、数据开发、数据集成、运维中心、数据质量、数据服务等。其中数据开发已经开发完成,其他根据版本发布会逐步实现。如果您在数据开发过程中需要使用Dinky OpenAPI,使用方式请参见示例。
\ No newline at end of file
OpenAPI 包括元数据、数据开发、数据集成、运维中心、数据质量、数据服务等。其中数据开发已经开发完成,其他根据版本发布会逐步实现。如果您在数据开发过程中需要使用 Dinky OpenAPI,使用方式请参见示例。
\ No newline at end of file
docs/zh-CN/architecture.md
View file @
44ce1e47


docs/zh-CN/developer-guide/commit_code.md
View file @
44ce1e47
# 提交代码
*
首先从远端仓库
*https://github.com/DataLinkDC/dlink.git*
fork一份代码到自己的仓库中
*
首先从远端仓库
*https://github.com/DataLinkDC/dlink.git*
fork
一份代码到自己的仓库中
*
远端仓库中目前有三个分支:
...
...
docs/zh-CN/dinky_overview.md
View file @
44ce1e47
## 概述
Dinky
做为FlinkSQL的实时计算平台目前可以被部署在本地。充分利用了Flink在SQL上计算的能力,为您提供极致的Dinky
使用体验。
Dinky
做为 FlinkSQL 的实时计算平台目前可以被部署在本地。充分利用了 Flink 在 SQL 上计算的能力,为您提供极致的 Dinky
使用体验。
-
**开源:**
产品提供多个的
Flink版本,与开源Flink
接口完全兼容,满足您的平滑迁移业务的需求。
-
**开源:**
产品提供多个的
Flink 版本,与开源 Flink
接口完全兼容,满足您的平滑迁移业务的需求。
-
**免费:**
平台各组件免费使用,您只需部署
Dinky,Flink及相关上下游存储系统即可使用Dinky
产品。
-
**易用:**
提供开箱即用的作业开发平台,以及
Metric
采集、展示、监控和报警的能力。满足分钟级别搭建平台的需求,节省时间。
-
**免费:**
平台各组件免费使用,您只需部署
Dinky,Flink 及相关上下游存储系统即可使用 Dinky
产品。
-
**易用:**
提供开箱即用的作业开发平台,以及
Metric
采集、展示、监控和报警的能力。满足分钟级别搭建平台的需求,节省时间。
[
Apache Flink
](
https://github.com/apache/flink
)
是
Apache
社区的先进开源项目,主攻流计算领域,具备高吞吐,低延时的特点,已经成为了目前流式处理领域的热门引擎。主要应用功能包括流批一体化及湖仓一体化的建设。
[
Apache Flink
](
https://github.com/apache/flink
)
是
Apache
社区的先进开源项目,主攻流计算领域,具备高吞吐,低延时的特点,已经成为了目前流式处理领域的热门引擎。主要应用功能包括流批一体化及湖仓一体化的建设。
Dinky做为实时数据中台,当前也支持各种数据源连接。
...
...
@@ -15,7 +15,7 @@ Dinky做为实时数据中台,当前也支持各种数据源连接。
### FlinkSQL上下游系统
Flink
SQL支持丰富的上下游存储,实时计算平台支持支持Flink1.11、Flink1.12、Flink1.13和Flink1.14
四个版本,对应的版本支持所有开源的上下游存储详见具体Connector信息,请参见Flink开源社区:
Flink
SQL 支持丰富的上下游存储,实时计算平台支持支持 Flink 1.11、Flink 1.12、Flink 1.13 和 Flink 1.14
四个版本,对应的版本支持所有开源的上下游存储详见具体Connector信息,请参见Flink开源社区:
-
[
Flink1.11
](
https://nightlies.apache.org/flink/flink-docs-release-1.11/dev/table/connectors/
)
...
...
@@ -23,13 +23,13 @@ FlinkSQL支持丰富的上下游存储,实时计算平台支持支持Flink1.11
-
[
Flink1.13
](
https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/connectors/table/overview/
)
-
[
Flink1.14
](
https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/connectors/table/overview/
)
另外非
Flink官网支持的上下游系统详见
github:
另外非
Flink 官网支持的上下游系统详见
github:
-
[
Flink-CDC
](
https://github.com/ververica/flink-cdc-connectors/releases/
)
-
[
Hudi
](
https://github.com/apache/hudi/releases
)
-
[
Iceberg
](
https://github.com/apache/iceberg/releases
)
-
[
Doris:
](
https://github.com/apache/incubator-doris-flink-connector/tags
)
目前只支持sink
-
[
Doris:
](
https://github.com/apache/incubator-doris-flink-connector/tags
)
目前只支持
sink
-
[
Starrocks
](
https://github.com/StarRocks/flink-connector-starrocks/releases
)
-
[
ClickHouse
](
)
-
[
Pulsar
](
https://github.com/streamnative/pulsar-flink/releases
)
...
...
@@ -40,37 +40,40 @@ FlinkSQL支持丰富的上下游存储,实时计算平台支持支持Flink1.11
## 管理控制台介绍
Dinky
实时数据中台数据开发模块包括数据开发、运维中心、注册中心和系统设置三
大模块。
Dinky
实时数据中台数据开发模块包括
**数据开发**
、
**运维中心**
、
**注册中心**
和
**系统设置**
四
大模块。
1.
在浏览器输入
Dinky
地址;
1.
在浏览器输入
Dinky
地址;
2.
点击登录进入
Dinky
管理界面控制台;
2.
点击登录进入
Dinky
管理界面控制台;
**点击系统设置**
系统设置包括用户管理和Flink设置

### 数据开发
数据开发包括作业管理、作业配置和运维管理等

**点击注册中心**
注册中心包括集群管理、Jar管理、数据源管理、报警管理和文档管理

### 运维中心

**点击运维中心**

### 注册中心
注册中心包括集群管理、Jar管理、数据源管理、报警管理和文档管理

**点击数据开发**
数据开发包括作业管理、作业配置和运维管理等

### 系统设置
系统设置包括用户管理和Flink设置

docs/zh-CN/extend/Flink_CDC_kafka_Multi_source_merger.md
View file @
44ce1e47
# Flink CDC
和kafka
进行多源合并和下游同步更新
# Flink CDC
和 Kafka
进行多源合并和下游同步更新
...
...
@@ -13,7 +13,7 @@
本文主要是针对 Flink SQL 使用 Flink CDC 无法实现多库多表的多源合并问题,以及多源合并后如何对下游 Kafka 同步更新的问题,因为目前 Flink SQL 也只能进行单表 Flink CDC 的作业操作,这会导致数据库 CDC 的连接数过多。
但是 Flink CDC 的
dataStream API 是可以进行多库多表的同步操作的,本文希望利用 Flink CDC 的 dataStream API 进行多源合并后导入一个总线 Kafka,下游只需连接总线 k
afka 就可以实现 Flink SQL 的多源合并问题,资源复用。
但是 Flink CDC 的
DataStream API 是可以进行多库多表的同步操作的,本文希望利用 Flink CDC 的 DataStream API 进行多源合并后导入一个总线 Kafka,下游只需连接总线 K
afka 就可以实现 Flink SQL 的多源合并问题,资源复用。
# 环境
...
...
@@ -37,9 +37,9 @@ ConnectRecord{topic='mysql_binlog_source.gmall.spu_info', kafkaPartition=null, k
可以看到,这种格式的 JSON,传给下游有很大的问题,要实现多源合并和同步更新,我们要解决以下两个问题。
**①总线
Kafka传来的json,无法识别源库和源表来进行具体的表创建操作,因为不是固定的json格式,建表WHIT
配置里也无法指定具体的库和表。**
**①总线
Kafka 传来的 Json,无法识别源库和源表来进行具体的表创建操作,因为不是固定的 Json 格式,建表 with
配置里也无法指定具体的库和表。**
**②总线
Kafka传来的json如何进行CRUD等事件对Kafka流的同步操作,特别是Delete,下游kafka如何感知来更新
ChangeLog。**
**②总线
Kafka 传来的 Json 如何进行 CRUD 等事件对 Kafka 流的同步操作,特别是 Delete,下游 kafka 如何感知来更新
ChangeLog。**
# 查看文档
...
...
@@ -58,7 +58,7 @@ ConnectRecord{topic='mysql_binlog_source.gmall.spu_info', kafkaPartition=null, k
那这里就已经解决了问题②。
剩下问题①,如何解决传来的多库多表进行指定表和库的识别,毕竟建表语句没有进行
where
的设置参数。
剩下问题①,如何解决传来的多库多表进行指定表和库的识别,毕竟建表语句没有进行
where
的设置参数。
再往下翻文档:
...
...
@@ -94,9 +94,9 @@ select * from Kafka_Table where origin_database='gmall' and origin_table = 'spu_
那这样问题②就解决了。
那我们现在就要做两个事情:
**①写一个Flink CDC
的dataStream项目进行多库多表同步,传给总线
Kafka。**
**①写一个Flink CDC
的 DataStream 项目进行多库多表同步,传给总线
Kafka。**
**②自定义总线
Kafka的json
格式。**
**②自定义总线
Kafka 的 json
格式。**
# 新建Flink CDC的dataStream项目
...
...
docs/zh-CN/extend/datasource.md
View file @
44ce1e47
Dinky
数据源遵循SPI,可随意扩展所需要的数据源。数据源扩展可在dlink-metadata
模块中进行可插拔式扩展。现已经支持的数据源包括如下:
Dinky
数据源遵循 SPI,可随意扩展所需要的数据源。数据源扩展可在 dlink-metadata
模块中进行可插拔式扩展。现已经支持的数据源包括如下:
-
MySQL
-
Oracle
...
...
@@ -11,4 +11,4 @@
使用以上数据源,请查阅注册中心
[
数据源管理
](
/zh-CN/administrator-guide/registerCenter/datasource_manage.md
)
,配置数据源连接
**说明:**
Dinky不在对Starorcks进行额外扩展,Doris和Starorcks底层并无差别,原则上只是功能区分。经社区测试验证,可采用Doris扩展连接Starrocks。
\ No newline at end of file
**说明:**
Dinky 不在对 Starorcks 进行额外扩展,Doris 和 Starorcks 底层并无差别,原则上只是功能区分。经社区测试验证,可采用 Doris 扩展连接 Starrocks。
\ No newline at end of file
docs/zh-CN/extend/hive.md
View file @
44ce1e47
## 前言
最近有很多小伙伴问,
dlink
如何连接 Hive 进行数据开发?
最近有很多小伙伴问,
Dlinky
如何连接 Hive 进行数据开发?
关于
dlink
连接 Hive 的步骤同 Flink 的
`sql-client `
,只不过它没有默认加载的配置文件。下文将详细讲述对 Hive 操作的全过程。
关于
Dlinky
连接 Hive 的步骤同 Flink 的
`sql-client `
,只不过它没有默认加载的配置文件。下文将详细讲述对 Hive 操作的全过程。
## 准备工作
...
...
@@ -10,9 +10,9 @@
我们先来梳理下本教程的各个组件版本:
|
组件
| 版本 |
|
:----:
| :----: |
| Dlink
| 0.3.2 |
|
组件
| 版本 |
|
:------:
| :----: |
| Dlink
y
| 0.3.2 |
| Flink | 1.12.4 |
| Hadoop | 2.7.7 |
| Hive | 2.3.6 |
...
...
@@ -20,11 +20,11 @@
再来梳理下本教程的各个插件版本:
|
所属组件
| 插件 | 版本 |
|
:-----------:
| :------------------------: | :-------------------: |
| Dlink | dlink-client | 1.12 |
| Dlink & Flink | flink-sql-connector-hive | 2.3.6_2.11-1.12.3 |
| Dlink & Flink | flink-shaded-hadoop-3-uber | 3.1.1.7.2.8.0-224-9.0 |
|
所属组件
| 插件 | 版本 |
|
:--------------:
| :------------------------: | :-------------------: |
| Dlink
y
| dlink-client | 1.12 |
| Dlink
y
& Flink | flink-sql-connector-hive | 2.3.6_2.11-1.12.3 |
| Dlink
y
& Flink | flink-shaded-hadoop-3-uber | 3.1.1.7.2.8.0-224-9.0 |
## 部署扩展
...
...
@@ -45,7 +45,7 @@ USE CATALOG myhive;
select
*
from
htest
```
在 Dlink 编辑器中输入以上 sql ,创建 Hive Catalog,并查询一张表。
在 Dlink
y
编辑器中输入以上 sql ,创建 Hive Catalog,并查询一张表。
其中,
`hive-conf-dir`
需要指定
`hive-site.xml`
的路径,其他同 Flink 官方解释。
...
...
docs/zh-CN/others/comminicate.md
View file @
44ce1e47
...
...
@@ -6,4 +6,8 @@ QQ社区群:**543709668**,申请备注 “ Dinky ”,不写不批
微信社区群(推荐):添加微信号 wenmo_ai 邀请进群,申请备注 “ Dinky + 企业名 + 职位”,不写不批
公众号(最新消息获取建议关注):
[
DataLink数据中台
](
https://mmbiz.qpic.cn/mmbiz_jpg/dyicwnSlTFTp6w4PuJruFaLV6uShCJDkzqwtnbQJrQ90yKDuuIC8tyMU5DK69XZibibx7EPPBRQ3ic81se5UQYs21g/0?wx_fmt=jpeg
)
\ No newline at end of file
**公众号(最新消息获取建议关注):**
-
**微信搜索公众号:**
`DataLink数据中台`
-
**扫码关注公众号:**
扫下图二维码,关注公众号

\ No newline at end of file
docs/zh-CN/others/plans.md
View file @
44ce1e47
1.
任务生命周期管理
*
[
]
多租户及命名空间
2.
作业监控及运维
3.
流作业自动恢复
4.
作业日志查看
5.
钉钉报警和推送
\ No newline at end of file
*
[
]
统一元数据管理
*
[
]
全局血缘与影响分析
*
[
]
Flink 元数据持久化
*
[
]
多版本 Flink-Client Server
*
[
]
整库千表同步
docs/zh-CN/others/thanks.md
View file @
44ce1e47
...
...
@@ -12,4 +12,4 @@
此外,感谢
[
JetBrains
](
https://www.jetbrains.com/?from=dlink
)
提供的免费开源 License 赞助
[

](https://www.jetbrains.com/?from=dlink)
\ No newline at end of file
[

](https://www.jetbrains.com/?from=dlink)
\ No newline at end of file
docs/zh-CN/practice/yarnsubmit.md
View file @
44ce1e47
...
...
@@ -3,7 +3,9 @@
### 注册 Session 集群


### 创建 Session 集群
进入集群中心进行远程集群的注册。点击新建按钮配置远程集群的参数。图中示例配置了一个 Flink on Yarn 的高可用集群,其中 JobManager HA 地址需要填写集群中所有可能被作为 JobManager 的 RestAPI 地址,多个地址间使用英文逗号分隔。表单提交时可能需要较长时间的等待,因为 dlink 正在努力的计算当前活跃的 JobManager 地址。
...
...
@@ -15,7 +17,7 @@
### 执行 Hello World
万物都具有 Hello World 的第一步,当然
dlink
也是具有的。我们选取了基于 datagen 的流查询作为第一行 Flink Sql。具体如下:
万物都具有 Hello World 的第一步,当然
Dlinky
也是具有的。我们选取了基于 datagen 的流查询作为第一行 Flink Sql。具体如下:
```
sql
CREATE
TABLE
Orders
(
...
...
@@ -32,15 +34,15 @@ select order_number,price,order_time from Orders
该例子使用到了 datagen,需要在 dlink 的 plugins 目录下添加 flink-table.jar。
点击
Flink Sql Studio
进入开发页面:
点击
**数据开发**
进入开发页面:


在中央的编辑器中编辑 Flink Sql。
右边作业配置:
1.
执行模式:选中
y
arn-session;
1.
执行模式:选中
Y
arn-session;
2.
Flink 集群:选中上文注册的测试集群;
3.
SavePoint 策略:选中禁用;
4.
按需进行其他配置。
...
...
@@ -54,13 +56,13 @@ select order_number,price,order_time from Orders
### 预览数据


切换到历史选项卡点击刷新可以查看提交进度。切换到结果选项卡,等待片刻点击获取最新数据即可预览 SELECT。
### 停止任务


切换到进程选项卡,选则对应的集群实例,查询当前任务,可执行停止操作。
...
...
@@ -70,7 +72,7 @@ select order_number,price,order_time from Orders
进入集群中心——集群配置,注册配置。


1.
Hadoop 配置文件路径:指定配置文件路径(末尾无/),需要包含以下文件:core-site.xml,hdfs-site.xml,yarn-site.xml;
2.
Flink 配置 lib 路径:指定 lib 的 hdfs 路径(末尾无/),需要包含 Flink 运行时的所有依赖,即 flink 的 lib 目录下的所有 jar;
...
...
docs/zh-CN/quick_start/download.md
View file @
44ce1e47
...
...
@@ -2,7 +2,7 @@
### 发行说明
d
inky 版本的
[
发行说明
](
/zh-CN/release_notes/dinky-0.6.1.md
)
D
inky 版本的
[
发行说明
](
/zh-CN/release_notes/dinky-0.6.1.md
)
### 当前稳定版本 0.6.1
...
...
docs/zh-CN/release_notes/dinky-0.6.1.md
View file @
44ce1e47
...
...
@@ -9,6 +9,8 @@ Dinky 0.6.1 是一个 Bug 修复版本。
-
新增 savepointTask 的 Open API
-
新增 WeChat WebHook 报警方式
-
新增 数据开发全屏的退出按钮
-
新增 飞书 WebHook 报警方式
-
新增 邮箱 报警方式
## 修复和优化
...
...
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment