数据湖计算 DLC 提供了基于原生 Spark 的批处理、流计算能力,支持用户通过数据任务进行复杂的数据处理、ETL 等操作。
目前数据作业的 Spark 相关版本支持如下:
在开始使用数据作业前,为了保证您的数据安全,您需要先创建数据访问策略,详细配置说明请参见 配置数据访问策略。
同时,我们支持使用 Ckafka 作为数据源进行数据作业配置。后续我们也将持续丰富数据源支持,为您提供更全面的数据作业使用场景。
数据作业将根据使用数据引擎进行计费,目前支持按量计费和包年包月两种模式。详情可参见 数据引擎说明。
注意:由于数据作业与 SQL 作业的计算引擎类型差异,需要单独购买 Spark 作业类型的数据引擎,无法使用 SparkSQL 类型的数据引擎运行数据作业。
通过数据作业管理菜单,您可以对数据作业进行创建、启动、修改、删除。
本页内容是否解决了您的问题?