ICode9

精准搜索请尝试: 精确搜索
  • Sqoop安装教程2021-10-08 11:01:51

    sqoop版本:sqoop-1.4.6-cdh5.14.2 资源路径:百度网盘 请输入提取码 提取码:zzzz 1、将软件安装包拷贝到 /opt 目录下 2、创建sqoop安装目录 命令: mkdir /opt/soft/sqoop146 3、将安装包解压到安装目录 命令: tar -zxvf sqoop-1.4.6-cdh5.14.2.tar.gz -C /opt/soft/sqoop146 --scr

  • Sqoop详细安装与环境配置2021-07-19 16:03:46

    1.Sqoop作用 Sqoop是一个用于在Hadoop和关系数据库服务器之间传输数据的工具。它用于从关系数据库(如MySQL,Oracle)导入数据到Hadoop HDFS,并从Hadoop文件系统导出到关系数据库。 2.安装教程 下载安装包 下载地址:http://archive.cloudera.com/cdh5/cdh/5/sqoop-1.4.6-cdh5.14.2.tar

  • HBase的集群环境搭建2021-06-01 17:56:25

            本篇博客,小菌为大家带来的是关于HBase的集群环境搭建。         在开始之前,有一个注意事项:HBase强依赖zookeeper和hadoop,安装HBase之前一定要保证zookeeper和hadoop启动成功,且服务正常运行。          第一步: 下载对应的HBase 的安装包  

  • Hadoop集群配置(二)免密登录和集群配置2021-05-21 00:00:09

    写在开头: 难难难道德玄,不对知音不可谈,对了知音谈几句,不对知音枉费舌尖~~ 咱们书接上回,上一篇写完了基础环境的配置,这篇就来说硕同样重要的免密登录,当然还有Hadoop集群的配置。 2.1 三台linux服务器环境准备 1. 三台机器IP设置 三台机器修改ip地址: # 对网库进行设置 vi /etc/s

  • zookeeper-3.4.5-cdh5.14.2安装部署(三节点)2021-03-02 09:31:02

    文章目录 1. 三台机器安装zookeeper集群1.1 下载zookeeeper的压缩包,下载网址如下1.2 解压1.3 修改配置文件1.4 添加myid配置1.5 安装包分发并修改myid的值1.6 配置环境变量1.7 三台机器启动zookeeper服务1.8 如何关闭zookeeper集群 1. 三台机器安装zookeeper集群 注

  • 2.kafka集群环境搭建2020-07-24 02:00:32

    2.1.集群主机规划 序号机器名称ip/mac地址硬件资源安装服务 1 cdh1 root/server123 192.168.80.100,00:50:56:2B:5B:EF cpu:2核 , 内存:2.5g ,硬盘20g ,网卡:千兆网卡 jdk、zookeeper、kafka 2 cdh2 root/server123 192.168.80.101,00:50:56:39:23:67 cpu:2核 , 内存:2.5g ,硬盘20g ,网

  • hadoop-2.6.0-cdh5.14.0 集群高可用搭建2020-06-13 13:04:02

    分布式环境搭建(适用于工作当中正式环境搭建) 使用完全分布式,实现namenode高可用,ResourceManager的高可用 集群运行服务规划 安装包解压 停止之前的hadoop集群的所有服务,并删除所有机器的hadoop安装包,然后重新解压hadoop压缩包 解压压缩包 第一台机器执行以下命令进行解压 cd /exp

  • 简易hadoop三节点集群搭建总结2019-10-04 14:01:39

    三节点hadoop集群搭建教程 一、 安装VMware虚拟机 二、 创建第一个Linux虚拟机节点,本机使用的centOS7.6 64位版本 三、 创建2个克隆节点 四、 3节点都关闭防火墙 命令:systemctl stop firewalld 关闭后查看防火墙状态确认是否关闭成功:systemctl status firewalld 五、 关闭 selinu

  • B02 - 013、上传源码包:hadoop-2.6.0-cdh5.14.0-src.tar2019-06-22 18:56:25

    初学耗时:0.5h 注:CSDN手机端暂不支持章节内链跳转,但外链可用,更好体验还请上电脑端。 一、上传源码包:hadoop-2.6.0-cdh5.14.0-src.tar   1.1  上传并解压hadoop-2.6.0-cdh5.14.0-src.tar。   1.2  编译前的快照:V3_Hadoop编译前的部署。   1.3  开始了,开始编译。  

  • B02 - 014、成功后的处理2019-06-22 18:54:39

    初学耗时:0.5h 注:CSDN手机端暂不支持章节内链跳转,但外链可用,更好体验还请上电脑端。 一、成功后的处理     1.1  验证是否安装成功。     1.2  下载压缩包到桌面。 记忆词:   sz  B02 - 999、部署大数据环境及部分编译  ギ 舒适区ゾ || ♂ 累觉无爱 ♀

  • 给hive的metastore做JVM优化2019-04-29 17:49:03

      最近在测试环境下,hive的metastore不稳定,于是做一次JVM优化 在hive-env.sh中 export HADOOP_HOME=/opt/cdh/hadoop-2.6.0-cdh5.14.0   if [ "$SERVICE" = "cli" ]; then if [ -z "$DEBUG" ]; then export HADOOP_OPTS="$HADOOP_OPTS -XX:NewRatio=12

  • 编译phoneix源码,整合Hbase2019-04-29 11:43:00

    Hbase版本:1.2.0-cdh5.14.0 1):下载phoneix源码 链接:https://pan.baidu.com/s/1uryK_jLEekdXV04DRc3axg 密码:bkqg 2):解压后,更改pom文件,指定你需要的cdh版本 因为我的是CDH5.14.0,所以要更改为我的版本 注意:需要更改所有的pom文件,把版本指定; 3):指定好之后,执行maven命令: mvn packag

  • 关于Hbase开启snappy压缩2019-04-27 16:48:03

    版本:自己编译的hbase-1.2.0-cdh5.14.0 默认情况下,Hbase不开启snappy压缩 , 所以在hbase的lib/native目录下什么也没有(我的前提是执行hadoop checknative可以看到hadoop是支持snappy的) 第一步: 需要将snappy-java-1.0.4.1.jar放在hbase的native目录下: 可以去hadoop下拷贝过去: cp /o

  • Phoenix安装配置2019-03-24 19:42:00

    下载Phoenix  在网站http://phoenix.apache.org/download.html找到对应HBase版本的安装程序,并下载安装包,解压安装程序到指定目录[root@hadoop01 soft]# wget http://www.apache.org/dyn/closer.lua/phoenix/apache-phoenix-4.14.0-cdh5.14.2/bin/apache-phoenix-4.14.0-cdh5.14.2

  • 二十一:CDH5.14离线安装Apache Spark 22019-02-24 08:48:18

    一:当有需要CDH安装Apache Spark 2时: 老规矩,从官网开始: https://www.cloudera.com/documentation.html https://www.cloudera.com/documentation/spark2/latest/topics/spark2_installing.html 注意几个重要的提示: 二:按步骤进行安装: 2.1:查看自己需要安装的版本: a:To download

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有