SpringBoot整合dataworks的實現過程

註意事項

阿裡雲的dataworks提供瞭OpenApi, 需要是企業版或旗艦版才能夠調用,也就是付費項目。

這裡測試主要是調用拉取dataworks上拉取的腳本,並存儲到本地。
腳本包含兩部分

1、開發的odps腳本(通過OpenApi獲取)2、建表語句腳本(通過dataworks信息去連接maxCompute獲取建立語句)

阿裡雲Dataworks的openApi分頁查詢限制,一次最多查詢100條。我們拉取腳本需要分多頁查詢

該項目使用到瞭MaxCompute的SDK/JDBC方式連接,SpringBoot操作MaxCompute SDK/JDBC連接

整合實現

實現主要是編寫工具類,如果需要則可以配置成SpringBean,註入容器即可使用

依賴引入

<properties>
    <java.version>1.8</java.version>
    <!--maxCompute-sdk-版本號-->
    <max-compute-sdk.version>0.40.8-public</max-compute-sdk.version>
    <!--maxCompute-jdbc-版本號-->
    <max-compute-jdbc.version>3.0.1</max-compute-jdbc.version>
    <!--dataworks版本號-->
    <dataworks-sdk.version>3.4.2</dataworks-sdk.version>
    <aliyun-java-sdk.version>4.5.20</aliyun-java-sdk.version>
</properties>
<dependencies>
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-configuration-processor</artifactId>
    <optional>true</optional>
</dependency>
<dependency>
    <groupId>org.projectlombok</groupId>
    <artifactId>lombok</artifactId>
    <optional>true</optional>
</dependency>
<!--max compute sdk-->
<dependency>
    <groupId>com.aliyun.odps</groupId>
    <artifactId>odps-sdk-core</artifactId>
    <version>${max-compute-sdk.version}</version>
</dependency>
<!--max compute jdbc-->
<dependency>
    <groupId>com.aliyun.odps</groupId>
    <artifactId>odps-jdbc</artifactId>
    <version>${max-compute-jdbc.version}</version>
    <classifier>jar-with-dependencies</classifier>
</dependency>
<!--dataworks需要引入aliyun-sdk和dataworks本身-->
<dependency>
    <groupId>com.aliyun</groupId>
    <artifactId>aliyun-java-sdk-core</artifactId>
    <version>${aliyun-java-sdk.version}</version>
</dependency>
<dependency>
    <groupId>com.aliyun</groupId>
    <artifactId>aliyun-java-sdk-dataworks-public</artifactId>
    <version>${dataworks-sdk.version}</version>
</dependency>
</dependencies>

請求參數類編寫

/**
 * @Description
 * @Author itdl
 * @Date 2022/08/09 15:12
 */
@Data
public class DataWorksOpenApiConnParam {
    /**
     * 區域 eg. cn-shanghai
     */
    private String region;

    /**
     * 訪問keyId
     */
    private String aliyunAccessId;
    /**
     * 密鑰
     */
    private String aliyunAccessKey;

    /**
     * 訪問端點  就是API的URL前綴
     */
    private String endPoint;

    /**
     * 數據庫類型 如odps
     */
    private String datasourceType;

    /**
     * 所屬項目
     */
    private String project;

    /**
     * 項目環境 dev  prod
     */
    private String projectEnv;
}

工具類編寫

基礎類準備,拉取腳本之後的回調函數

為什麼需要回調函數,因為拉取的是所有腳本,如果合並每次分頁結果的話,會導致內存溢出,而使用回調函數隻是每次循環增加處理函數

/**
 * @Description
 * @Author itdl
 * @Date 2022/08/09 15:12
 */
@Data
public class DataWorksOpenApiConnParam {
    /**
     * 區域 eg. cn-shanghai
     */
    private String region;

    /**
     * 訪問keyId
     */
    private String aliyunAccessId;
    /**
     * 密鑰
     */
    private String aliyunAccessKey;

    /**
     * 訪問端點  就是API的URL前綴
     */
    private String endPoint;

    /**
     * 數據庫類型 如odps
     */
    private String datasourceType;

    /**
     * 所屬項目
     */
    private String project;

    /**
     * 項目環境 dev  prod
     */
    private String projectEnv;
}

初始化操作

主要是實例化dataworks openApi接口的客戶端信息,maxCompute連接的工具類初始化(包括JDBC,SDK方式)

private static final String MAX_COMPUTE_JDBC_URL_FORMAT = "http://service.%s.maxcompute.aliyun.com/api";
/**默認的odps接口地址 在Odps中也可以看到該變量*/
private static final String defaultEndpoint = "http://service.odps.aliyun.com/api";
/**
 * dataworks連接參數
 *
 */
private final DataWorksOpenApiConnParam connParam;

/**
 * 可以使用dataworks去連接maxCompute 如果連接的引擎是maxCompute的話
 */
private final MaxComputeJdbcUtil maxComputeJdbcUtil;

private final MaxComputeSdkUtil maxComputeSdkUtil;

private final boolean odpsSdk;


/**
 * 客戶端
 */
private final IAcsClient client;

public DataWorksOpenApiUtil(DataWorksOpenApiConnParam connParam, boolean odpsSdk) {
    this.connParam = connParam;
    this.client = buildClient();
    this.odpsSdk = odpsSdk;
    if (odpsSdk){
        this.maxComputeJdbcUtil = null;
        this.maxComputeSdkUtil = buildMaxComputeSdkUtil();
    }else {
        this.maxComputeJdbcUtil = buildMaxComputeJdbcUtil();
        this.maxComputeSdkUtil = null;
    }
}

private MaxComputeSdkUtil buildMaxComputeSdkUtil() {
    final MaxComputeSdkConnParam param = new MaxComputeSdkConnParam();

    // 設置賬號密碼
    param.setAliyunAccessId(connParam.getAliyunAccessId());
    param.setAliyunAccessKey(connParam.getAliyunAccessKey());

    // 設置endpoint
    param.setMaxComputeEndpoint(defaultEndpoint);

    // 目前隻處理odps的引擎
    final String datasourceType = connParam.getDatasourceType();
    if (!"odps".equals(datasourceType)){
        throw new BizException(ResultCode.DATA_WORKS_ENGINE_SUPPORT_ERR);
    }

    // 獲取項目環境,根據項目環境連接不同的maxCompute
    final String projectEnv = connParam.getProjectEnv();

    if ("dev".equals(projectEnv)){
        // 開發環境dataworks + _dev就是maxCompute的項目名
        param.setProjectName(String.join("_", connParam.getProject(), projectEnv));
    }else {
        // 生產環境dataworks的項目名和maxCompute一致
        param.setProjectName(connParam.getProject());
    }

    return new MaxComputeSdkUtil(param);
}

private MaxComputeJdbcUtil buildMaxComputeJdbcUtil() {
    final MaxComputeJdbcConnParam param = new MaxComputeJdbcConnParam();

    // 設置賬號密碼
    param.setAliyunAccessId(connParam.getAliyunAccessId());
    param.setAliyunAccessKey(connParam.getAliyunAccessKey());

    // 設置endpoint
    param.setEndpoint(String.format(MAX_COMPUTE_JDBC_URL_FORMAT, connParam.getRegion()));

    // 目前隻處理odps的引擎
    final String datasourceType = connParam.getDatasourceType();
    if (!"odps".equals(datasourceType)){
        throw new BizException(ResultCode.DATA_WORKS_ENGINE_SUPPORT_ERR);
    }

    // 獲取項目環境,根據項目環境連接不同的maxCompute
    final String projectEnv = connParam.getProjectEnv();

    if ("dev".equals(projectEnv)){
        // 開發環境dataworks + _dev就是maxCompute的項目名
        param.setProjectName(String.join("_", connParam.getProject(), projectEnv));
    }else {
        // 生產環境dataworks的項目名和maxCompute一致
        param.setProjectName(connParam.getProject());
    }

    return new MaxComputeJdbcUtil(param);
}

調用OpenApi拉取所有腳本

/**
 * 根據文件夾路徑分頁查詢該路徑下的文件(腳本)
 * @param pageSize 每頁查詢多少數據
 * @param folderPath 文件所在目錄
 * @param userType 文件所屬功能模塊 可不傳
 * @param fileTypes 設置文件代碼類型 逗號分割 可不傳
 */
public void listAllFiles(Integer pageSize, String folderPath, String userType, String fileTypes, CallBack.FileCallBack callBack) throws ClientException {
    pageSize = setPageSize(pageSize);
    // 創建請求
    final ListFilesRequest request = new ListFilesRequest();

    // 設置分頁參數
    request.setPageNumber(1);
    request.setPageSize(pageSize);

    // 設置上級文件夾
    request.setFileFolderPath(folderPath);

    // 設置區域和項目名稱
    request.setSysRegionId(connParam.getRegion());
    request.setProjectIdentifier(connParam.getProject());

    // 設置文件所屬功能模塊
    if (!ObjectUtils.isEmpty(userType)){
        request.setUseType(userType);
    }
    // 設置文件代碼類型
    if (!ObjectUtils.isEmpty(fileTypes)){
        request.setFileTypes(fileTypes);
    }

    // 發起請求
    ListFilesResponse res = client.getAcsResponse(request);

    // 獲取分頁總數
    final Integer totalCount = res.getData().getTotalCount();
    // 返回結果
    final List<ListFilesResponse.Data.File> resultList = res.getData().getFiles();
    // 計算能分幾頁
    long pages = totalCount % pageSize == 0 ? (totalCount / pageSize) : (totalCount / pageSize) + 1;
    // 隻有1頁 直接返回
    if (pages <= 1){
        callBack.handle(resultList);
        return;
    }

    // 第一頁執行回調
    callBack.handle(resultList);

    // 分頁數據 從第二頁開始查詢 同步拉取,可以優化為多線程拉取
    for (int i = 2; i <= pages; i++) {
        //第1頁
        request.setPageNumber(i);
        //每頁大小
        request.setPageSize(pageSize);
        // 發起請求
        res = client.getAcsResponse(request);
        final List<ListFilesResponse.Data.File> tableEntityList = res.getData().getFiles();
        if (!ObjectUtils.isEmpty(tableEntityList)){
            // 執行回調函數
            callBack.handle(tableEntityList);
        }
    }
}

內部連接MaxCompute拉取所有DDL腳本內容

DataWorks工具類代碼,通過回調函數處理

    /**
     * 獲取所有的DDL腳本
     * @param callBack 回調處理函數
     */
    public void listAllDdl(CallBack.DdlCallBack callBack){
        if (odpsSdk){
            final List<TableMetaInfo> tableInfos = maxComputeSdkUtil.getTableInfos();
            for (TableMetaInfo tableInfo : tableInfos) {
                final String tableName = tableInfo.getTableName();
                final String sqlCreateDesc = maxComputeSdkUtil.getSqlCreateDesc(tableName);
                callBack.handle(tableName, sqlCreateDesc);
            }
        }
    }

MaxCompute工具類代碼,根據表名獲取建表語句, 以SDK為例, JDBC直接執行show create table即可拿到建表語句

/**
 * 根據表名獲取建表語句
 * @param tableName 表名
 * @return
 */
public String getSqlCreateDesc(String tableName) {
    final Table table = odps.tables().get(tableName);
    // 建表語句
    StringBuilder mssqlDDL = new StringBuilder();

    // 獲取表結構
    TableSchema tableSchema = table.getSchema();
    // 獲取表名表註釋
    String tableComment = table.getComment();

    //獲取列名列註釋
    List<Column> columns = tableSchema.getColumns();
    /*組裝成mssql的DDL*/
    // 表名
    mssqlDDL.append("CREATE TABLE IF NOT EXISTS ");
    mssqlDDL.append(tableName).append("\n");
    mssqlDDL.append(" (\n");
    //列字段
    int index = 1;
    for (Column column : columns) {
        mssqlDDL.append("  ").append(column.getName()).append("\t\t").append(column.getTypeInfo().getTypeName());
        if (!ObjectUtils.isEmpty(column.getComment())) {
            mssqlDDL.append(" COMMENT '").append(column.getComment()).append("'");
        }
        if (index == columns.size()) {
            mssqlDDL.append("\n");
        } else {
            mssqlDDL.append(",\n");
        }
        index++;
    }
    mssqlDDL.append(" )\n");
    //獲取分區
    List<Column> partitionColumns = tableSchema.getPartitionColumns();
    int partitionIndex = 1;
    if (!ObjectUtils.isEmpty(partitionColumns)) {
        mssqlDDL.append("PARTITIONED BY (");
    }
    for (Column partitionColumn : partitionColumns) {
        final String format = String.format("%s %s COMMENT '%s'", partitionColumn.getName(), partitionColumn.getTypeInfo().getTypeName(), partitionColumn.getComment());
        mssqlDDL.append(format);
        if (partitionIndex == partitionColumns.size()) {
            mssqlDDL.append("\n");
        } else {
            mssqlDDL.append(",\n");
        }
        partitionIndex++;
    }

    if (!ObjectUtils.isEmpty(partitionColumns)) {
        mssqlDDL.append(")\n");
    }
//        mssqlDDL.append("STORED AS ALIORC  \n");
//        mssqlDDL.append("TBLPROPERTIES ('comment'='").append(tableComment).append("');");
    mssqlDDL.append(";");
    return mssqlDDL.toString();
}

測試代碼

public static void main(String[] args) throws ClientException {
    final DataWorksOpenApiConnParam connParam = new DataWorksOpenApiConnParam();
    connParam.setAliyunAccessId("您的阿裡雲賬號accessId");
    connParam.setAliyunAccessKey("您的阿裡雲賬號accessKey");
    // dataworks所在區域
    connParam.setRegion("cn-chengdu");
    // dataworks所屬項目
    connParam.setProject("dataworks所屬項目");
    // dataworks所屬項目環境 如果不分環境的話設置為生產即可
    connParam.setProjectEnv("dev");
    // 數據引擎類型 odps
    connParam.setDatasourceType("odps");
    // ddataworks接口地址
    connParam.setEndPoint("dataworks.cn-chengdu.aliyuncs.com");
    final DataWorksOpenApiUtil dataWorksOpenApiUtil = new DataWorksOpenApiUtil(connParam, true);

    // 拉取所有ODPS腳本
    dataWorksOpenApiUtil.listAllFiles(100, "", "", "10", files -> {
        // 處理文件
        for (ListFilesResponse.Data.File file : files) {
            final String fileName = file.getFileName();
            System.out.println(fileName);
        }
    });

    // 拉取所有表的建表語句
    dataWorksOpenApiUtil.listAllDdl((tableName, tableDdlContent) -> {
        System.out.println("=======================================");
        System.out.println("表名:" + tableName + "內容如下:\n");
        System.out.println(tableDdlContent);
        System.out.println("=======================================");
    });
}

測試結果

test_001腳本
test_002腳本
test_003腳本
test_004腳本
test_005腳本
=======================================
表名:test_abc_info內容如下:

CREATE TABLE IF NOT EXISTS test_abc_info
 (
    test_abc1        STRING COMMENT '字段1',
    test_abc2        STRING COMMENT '字段2',
    test_abc3        STRING COMMENT '字段3',
    test_abc4        STRING COMMENT '字段4',
    test_abc5        STRING COMMENT '字段5',
    test_abc6        STRING COMMENT '字段6',
    test_abc7        STRING COMMENT '字段7',
    test_abc8        STRING COMMENT '字段8'
 )
PARTITIONED BY (p_date STRING COMMENT '數據日期'
)
;
=======================================
Disconnected from the target VM, address: '127.0.0.1:59509', transport: 'socket'

項目地址

https://github.com/HedongLin123/dataworks_odps_demo

到此這篇關於SpringBoot整合dataworks的實現過程的文章就介紹到這瞭,更多相關SpringBoot整合dataworks內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀:

    None Found