书栈网 · BookStack 本次搜索耗时 0.011 秒,为您找到 3751 个相关结果.
  • Spark

    Spark 配置Spark 参数说明 tip 自定义参数 caution Spark 配置Spark 已配置前置组件 SFTP YARN HDFS 参数说明 参数项 默认值 说明 是否必填 spark.driver.extraJavaOptions -Dfile.encoding=UTF-8 driver的jvm参数 否 spa...
  • Spark

    Spark数据源 Spark数据源 数据源:选择Spark 数据源名称:输入数据源的名称 描述:输入数据源的描述 IP/主机名:输入连接Spark的IP 端口:输入连接Spark的端口 用户名:设置连接Spark的用户名 密码:设置连接Spark的密码 数据库名:输入连接Spark的数据库名称 Jdbc连接参数:用于Spark连接的参数设置,以J...
  • Spark

    SPARK节点 综述 创建任务 任务参数 任务样例 执行 WordCount 程序 上传主程序包 配置 Spark 节点 注意事项: SPARK节点 综述 Spark 任务类型,用于执行 Spark 程序。对于 Spark 节点,worker 会通关使用 spark 命令 spark submit 方式提交任务。更多详情查看 spa...
  • Spark

    Spark数据源 是否原生支持 Spark数据源 数据源:选择 Spark 数据源名称:输入数据源的名称 描述:输入数据源的描述 IP/主机名:输入连接Spark的IP 端口:输入连接Spark的端口 用户名:设置连接Spark的用户名 密码:设置连接Spark的密码 数据库名:输入连接Spark的数据库名称 Jdbc连接参数:用于Spark连...
  • Spark

    Spark Node Overview Create Task Task Parameters Task Example spark submit Execute the WordCount Program Configure the Spark Environment in DolphinScheduler Upload the Main Pack...
  • Spark

    SPARK节点 综述 创建任务 任务参数 任务样例 spark submit 执行 WordCount 程序 在 DolphinScheduler 中配置 Spark 环境 上传主程序包 配置 Spark 节点 spark sql 执行 DDL 和 DML 语句 注意事项: SPARK节点 综述 Spark 任务类型用于执行 ...
  • Spark

    Spark Spark Data source: select Spark Data source name: enter the name of the data source Description: Enter a description of the data source IP/Hostname: Enter the IP connec...
  • Spark

    Spark Node Overview Create Task Task Parameters Task Example spark submit Execute the WordCount Program Configure the Spark Environment in DolphinScheduler Upload the Main Pack...
  • Spark

    SPARK节点 SPARK节点 通过SPARK节点,可以直接直接执行SPARK程序,对于spark节点,worker会使用spark-submit 方式提交任务 拖动工具栏中的任务节点到画板中,如下图所示: 程序类型:支持JAVA、Scala和Python三种语言 主函数的class:是Spark程序的入口Main Class的全路径...
  • spark

    1.基础概念 2.rdd使用 3.dataframe使用 4.累加器和广播变量