ICode9

精准搜索请尝试: 精确搜索
  • Spark2.3配置项2021-09-07 17:04:27

    来源:https://spark.apache.org/docs/2.3.0/configuration.html     Available Properties Most of the properties that control internal settings have reasonable default values. Some of the most common options to set are: Application Properties Property NameDef

  • Spark学习之路 (二)Spark2.3 HA集群的分布式安装2021-02-12 20:33:59

    《2021年最新版大数据面试题全面开启更新》 欢迎关注github《大数据成神之路》 目录 一、下载Spark安装包 1、从官网下载 2、从微软的镜像站下载 3、从清华的镜像站下载 二、安装基础 三、Spark安装过程  1、上传并解压缩 2、为安装包创建一个软连接 3、进入spark/conf修改配置

  • CentOS7.5搭建spark2.3.1集群2020-06-11 10:09:15

    一 下载安装包 1 官方下载 官方下载地址:http://spark.apache.org/downloads.html 2  安装前提 Java8         安装成功 zookeeper  安装参考:CentOS7.5搭建Zookeeper3.4.12集群 hadoop       安装参考:CentOS7.5搭建Hadoop2.7.6集群 Scala          安装成功

  • spark2.3 消费kafka数据2019-12-13 14:02:45

    官网介绍 http://spark.apache.org/docs/2.3.0/streaming-kafka-0-10-integration.html#creating-a-direct-stream   案例pom.xml依赖 <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming_2.11</artifactId&

  • 自编译Apache Spark2.3.3支持CDH5.16.1的Yarn2019-04-07 10:48:24

    1 下载源代码文件 https://archive.apache.org/dist/spark/spark-2.3.3/       2 解压后导入编辑器,修改依赖的Hadoop版本,下面截图是修改后的,要看自己集成的CDH版本      3 然后编译,一开始要等一会儿,    4 编译成功后,copy出编译好的tar包,然后部署         

  • 最新最全的spark2.3读写操作hbase2019-03-27 13:48:33

    package com.yss.spark.hbase import com.yss.utils.BasicPropertites import org.apache.hadoop.conf.Configuration import org.apache.hadoop.hbase.HBaseConfiguration import org.apache.hadoop.hbase.client.{Put, Result, Scan} import org.apache.hadoop.hbase.filter

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有