tencent cloud

数据湖计算

产品动态
产品简介
产品概述
产品优势
应用场景
购买指南
计费概述
退费说明
欠费说明
调整配置费用说明
快速入门
新用户开通全流程
DLC 数据导入指引
一分钟入门 DLC 数据分析
一分钟入门 DLC 权限管理
一分钟入门分区表
开启数据优化
跨源分析 EMR Hive 数据
标准引擎配置指引
配置数据访问策略
操作指南
控制台操作介绍
开发指南
运行环境
SparkJar 作业开发指南
PySpark 作业开发指南
查询性能优化指南
UDF 函数开发指南
系统约束
客户端访问
JDBC 访问
TDLC 命令行工具访问
第三方软件联动
Python 访问
实践教程
通过 Power BI 访问 DLC 数据操作指南
建表实践
使用 Apache Airflow 调度 DLC 引擎提交任务
StarRocks 直接查询 DLC 内部存储
Spark 计算成本优化实践
DATA + AI
使用 DLC 分析 CLS 日志
使用角色 SSO 访问 DLC
资源级鉴权指南
在 DLC 中实现 TCHouse-D 读写操作
DLC 原生表
SQL 语法
SuperSQL 语法
标准 Spark 语法概览
标准 Presto 语法概览
保留字
API 文档
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
通用类参考
错误码
配额与限制
第三方软件连接DLC操作指南
常见问题
权限类常见问题
引擎类常见问题
功能类常见问题
Spark 作业类常见问题
DLC 政策
隐私协议
数据处理和安全协议
服务等级协议
联系我们

函数管理

PDF
聚焦模式
字号
最后更新时间: 2025-12-02 16:27:57
数据湖计算 DLC 中支持使用用户自定义函数对数据进行处理构建,并支持管理函数。

创建函数

1. 登录 数据湖计算 DLC 控制台,选择服务地域,登录账号需具备数据库操作权限。
2. 入口一:进入元数据管理页,切换至数据库页面,单击需要构建函数的数据库名称,进入后切换至函数页面。

入口二:进入元数据管理,切换至函数页。

3. 单击创建函数按钮,进入函数创建菜单。

函数包支持本地上传或使用 COS 上已有的 JAR、Python,本地上传 JAR 文件最大支持5M,Python 文件最大支持2M。
Python 注册 UDF 为全局生效,配置入口为:进入数据管理页切换至函数页点击创建。创建及管理流程可参考 UDF 函数开发指南
需选择 Spark 集群进行运行,运行过程中将不会产生任何费用。
建议将函数包保存到系统,方便对函数包进行管理及使用。同时也支持挂载至指定 COS 路径。

查看函数信息

1. 登录 数据湖计算 DLC 控制台,登录账号需具备数据库操作权限。
2. 进入元数据管理 > 数据库,单击需要查看函数的数据库名称。或进入元数据管理,切换至函数全局查看
3. 选择函数,即可查看函数的构建状态,若构建失败可点击右侧编辑按钮后再次提交。
4. 单击函数名称可直接查看函数详情信息。

编辑函数信息

1. 登录 数据湖计算 DLC 控制台,选择服务地域,登录账号需具备数据库操作权限。
2. 进入元数据管理页,单击需要查看函数的数据库名称
3. 选择函数,单击编辑按钮进入函数信息编辑页面。
暂不可修改函数名称、存储方式以及上传方式,如需修改此类信息可重新创建函数。
修改函数信息后,将进行重新构建,请谨慎操作。

删除函数

针对无需继续使用管理的函数,可对函数进行删除操作。
1. 登录 数据湖计算 DLC 控制台,选择服务地域,登录账号需具备数据库操作权限。
2. 进入元数据管理,单击需要查看函数的数据库名称
3. 选择函数,单击删除按钮对无需继续使用的函数进行删除。

注意:
删除后该函数下的数据将会被清空,且无法恢复,请谨慎操作。


帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈