ICode9

精准搜索请尝试: 精确搜索
  • Hadoop——WordCount实例及源码分析2019-09-21 18:37:40

    二话不说,先上代码与执行。 package com.yarn.wc; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.ma

  • Hadoop MapReduce2019-09-17 19:03:49

    Hadoop MapReduce 概观: Hadoop MapReduce是一个软件框架,用于轻松编写应用程序,以可靠,容错的方式在大型集群(数千个节点)的商用硬件上并行处理大量数据(多TB数据集)。 MapReduce 作业通常将输入数据集拆分为独立的块,这些块由map任务以完全并行的方式处理。框架对地图的输出进行排

  • WordCount经典案例及源码分析2019-09-05 16:35:22

    package com.ruozedata.bigdata.hadoop.mapreduce.wc; import com.ruozedata.bigdata.hadoop.utils.FileUtils; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io

  • MapReduce实现WordCount2019-09-02 18:56:47

      MapReduce采用的是“分而治之”的思想,把对大规模数据集的操作,分发给一个主节点管理下的各个从节点共同完成,然后通过整合各个节点的中间结果,得到最终结果。简单来说,MapReduce就是”任务的分解与结果的汇总“。     MapReduce的工作原理     在分布式计算中,MapReduce框架

  • Spark-WordCount2019-08-17 10:55:38

    words.txt 数据 this is one line this is two line def main(args: Array[String]): Unit = { //创建SparkConf()并且设置App的名称 val conf = new SparkConf() .setAppName("wordCount") .setMaster("local") // 如果需要在集群运行需要注释掉setMaster,不然

  • Hadoop大数据--Mapreduce编程规范及入门示例2019-08-13 20:41:29

    Mapreduce是一个分布式的运算编程框架,核心功能是将用户编写的核心逻辑代码分布式地运行在一个集群的很多服务器上. Mapreduce的存在价值 (1)海量数据在单机上处理因为硬件资源限制,无法胜任,因为需要采用分布式集群的方式来处理。 (2)而一旦将单机版程序扩展到集群来分布式运

  • mapReduce入门示例---wordcount分词统计2019-07-23 21:06:20

    此处使用的是hadoop HA环境,开发工具使用idea 使用idea远程连接hadoop,创建输入文件/wordcount/input和输出文件/wordcount/output,代码如下: package com.cn.hadoop; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import org.junit.Test; i

  • 【Mapreduce】Mapreduce实例——WordCount2019-06-11 20:48:21

    前言 MapReduce采用的是“分而治之”的思想,把对大规模数据集的操作,分发给一个主节点管理下的各个从节点共同完成,然后通过整合各个节点的中间结果,得到最终结果。简单来说,MapReduce就是”任务的分解与结果的汇总“。 一、 MapReduce的工作原理 在分布式计算中,MapReduce框架负

  • 大数据学习之storm-wordcount 实时版开发以及分组策略342019-06-05 18:51:21

    五:storm-wordcount 实时版开发 1:编写Spout package wc;import java.util.Map;import org.apache.storm.spout.SpoutOutputCollector;import org.apache.storm.task.TopologyContext;import org.apache.storm.topology.OutputFieldsDeclarer;import org.apache.storm.topology.base

  • Hadoop MapReduce例子(单词计数)-Java2019-05-22 16:53:30

    1.编写java代码 (1)创建wordcount测试目录           mkdir -p ~/wordcount/input (2)切换至wordcount测试目录            cd ~/wordcount (3)复制java代码          sudo gedit WordCount.java                 https://hadoop.apache.org/docs/r2.7.7/h

  • Hadoop完全分布式模式配置并运行wordcount2019-05-22 11:49:38

    Hadoop完全分布式模式配置并运行wordcount 一、新建另外两台Linux虚拟机 完全分布式模式共三台虚拟机,前述伪分布式的虚拟机(bigdata128)作为master主节点,克隆另外两个虚拟机(bigdata129、bigdata131)作为slaves子节点,克隆机自带安装JDK、Hadoop及配置文件。 注:此配置是为学习所

  • Hadoop实例WordCount程序一步一步运行2019-05-14 22:52:23

    虽说现在用Eclipse下开发Hadoop程序很方便了,但是命令行方式对于小程序开发验证很方便。这是初学hadoop时的笔记,记录下来以备查。   1. 经典的WordCound程序(WordCount.java),可参见 hadoop0.18文档 import java.io.IOException; import java.util.ArrayList; import java.util.I

  • Flink-WordCount2019-04-15 22:52:05

    一、背景 在flink本地环境安装完成之后,就想着怎么能调试和运行一个flink示例程序,本文记录下过程。 二、获取flink源码 通过如下命令,获取flink源码,在源码中有flink-examples模块,该模块中包含简单的SocketWindowWordCount.java示例程序。 git clone https://github.com/apache/

  • MapReduce学习总结之java版wordcount实现2019-04-08 15:39:30

    一、代码实现: package rdb.com.hadoop01.mapreduce; import java.io.IOException; import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.

  • 201671010456-张琼 实验四 软件工程结对项目2019-04-03 08:49:57

    博文简要信息表 项目 内容 这个作业属于哪个课程 http://www.cnblogs.com/nwnu-daizh/ 这个作业的要求在哪里 https://www.cnblogs.com/nwnu-daizh/p/10569690.html 课程学习目标 熟悉软件开发整体流程,提升自身能力。 本次作业在哪个具体方面帮助我们实现目标 第一次体

  • Hadoop 2.6.5 伪分布式安装及WordCount2019-03-30 18:49:25

      (一)Hadoop的安装与准备        (一)准备安装       1.安装Linux和配置Linux       2.关闭防火墙、配置Linux       3.安装JDK       4.解压安装包    (二)Hadoop的目录结构       设置JAVA的环境变量       JAVA_HOME=/usr/java/jdk

  • 单词统计wordcount2019-03-30 11:42:05

    单词统计 import java.io.File import scala.io.Source object WordCount { def main(args: Array[String]): Unit = { val dirfile=new File("/usr/local/scala/mycode/wordcount") val files=dirfile.listFiles for(file <- files) println(file)

  • Spark初步 从wordcount开始2019-03-29 17:53:21

    Spark初步-从wordcount开始 spark中自带的example,有一个wordcount例子,我们逐步分析wordcount代码,开始我们的spark之旅。 准备工作 把README.md文件复制到当前的文件目录,启动jupyter,编写我们的代码。 README.md文件在Spark的根目录下。 from pyspark.sql import SparkSession from o

  • IntelliJ进行Spark编程之WordCount2019-03-25 09:47:34

    项目目录如下: 代码: import org.apache.spark.{SparkConf, SparkContext} object WordCount{ def main(args:Array[String]) : Unit ={ val conf=new SparkConf().setAppName("word count").setMaster("local"); val sc=new SparkContext(conf);

  • 结对第二次—文献摘要热词统计及进阶需求2019-03-15 18:48:37

    结对第二次—文献摘要热词统计及进阶需求 格式描述 • 课程名称:软件工程1916|W(福州大学) • 作业要求:结对第二次—文献摘要热词统计及进阶需求 • 结对学号:041602421 翁昊 | • 作业目标: 一、基本需求:实现一个能够对文本文件中的单词的词频进行统计的控制台程序。 二、进阶需求:在基

  • Hadoop经典案例(一)WordCount的简易实现2019-03-14 21:52:46

    1:添加依赖包 <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>2.6.5</version> </dependency> <dependency> <group

  • [java] 软工实践WordCount-Plus2019-03-10 08:51:40

    整体思路 模块化 对于任何一个小模块,例如:输入、输出、计算都独立开来,降低耦合。 插件化 对于任何一个模块均作成插件,可拔插,可更换,而不会导致其他的插件出现故障。 事件驱动 使用观察者模式,用事件将所有的模块串联。 可拓展 可以自己制作插件来注册其他的指令,实现其他的功能。 动态

  • scala和spark实践wordcount2019-03-06 16:51:11

    1.scala实现: 数据The_Man_of_Property.txt: 实现代码: 结果: 2.spark实现: 数据: 同上 代码: 结果:

  • wordcount编程实现2019-03-01 21:49:15

    1.pom.xml <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> &

  • MapReduce实例——wordcount(单词统计)2019-02-01 20:05:35

    1. MR实例开发整体流程 最简单的MapReduce应用程序至少包含 3 个部分:一个 Map 函数、一个 Reduce 函数和一个 main 函数。在运行一个mapreduce计算任务时候,任务过程被分为两个阶段:map阶段和reduce阶段,每个阶段都是用键值对(key/value)作为输入(input)和输出(output)。main 函数将作业

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有