Home  >  Article  >  Database  >  windows 7 with eclipse 下hadoop应用开发环境搭建

windows 7 with eclipse 下hadoop应用开发环境搭建

WBOY
WBOYOriginal
2016-06-07 16:31:221187browse

一、概述 最近开始着手高校云平台的搭建,前些天做了hadoop集群测试环境的安装与配置的经验分享, 这篇文章主要介绍win7 64位下 eclipse4.2 连接远程Redhat Linux 5下hadoop-1.2.0集群开发环境搭建 二、环境 1、window 7 64位 2、eclipse 4.2 3、Redhat Linu

一、概述

最近开始着手高校云平台的搭建,前些天做了hadoop集群测试环境的安装与配置的经验分享, 这篇文章主要介绍win7 64位下 eclipse4.2 连接远程Redhat Linux 5下hadoop-1.2.0集群开发环境搭建


二、环境

1、window 7 64位

2、eclipse 4.2

3、Redhat Linux 5

4、hadoop-1.2.0


三、安装配置hadoop集群

参考我的文章:

http://blog.csdn.net/shan9liang/article/details/9841933

http://www.jialinblog.com/?p=176


?

四、在Eclipse下安装配置hadoop插件

1、编译Eclipse-hadoop插件

参考: http://www.cnblogs.com/chenying99/archive/2013/05/31/3109566.html


2、安装

安装插件就很简单了,把上面编译的插件文件放到 Eclipse的安装目录下的plugins,重新启动Eclipse


3、配置

(1)将hadoop解压到windows文件系统的某个目录中

(2)?打开Eclipse,设置好workspace

?打开Window-->Preferens,你会发现Hadoop Map/Reduce选项,在这个选项里你需要配置Hadoop installation directory。配置完成后退出。

(3)选择window -> open perspective -> Other... , 选择有大象图标的 Map/Reduce,此时,就打开了Map/Reduce的开发环境。可以看到,右下角多了一个Map/Reduce Locations的框。如下图

?

新建,在打开的窗口中输入:

?

Location Name : 此处为参数设置名称,可以任意填写

Map/Reduce Master (此处为Hadoop集群的Map/Reduce地址,应该和mapred-site.xml中的mapred.job.tracker设置相同)

DFS Master (此处为Hadoop的master服务器地址,应该和core-site.xml中的 fs.default.name 设置相同)

设置完成后,点击Finish就应用了该设置。

此时,在最左边的Project Explorer中就能看到DFS的目录,如下图所示。

配置完毕


五、测试

新建项目:File-->New-->Other-->Map/Reduce Project ,项目名可以随便取,如hadoop_test_01


它会自动添加依赖包,如下:

?

可以运行hadoop自带的wordcount实例


/**

?* ?Licensed under the Apache License, Version 2.0 (the "License");

?* ?you may not use this file except in compliance with the License.

?* ?You may obtain a copy of the License at

?*

?* ? ? ?http://www.apache.org/licenses/LICENSE-2.0

?*

?* ?Unless required by applicable law or agreed to in writing, software

?* ?distributed under the License is distributed on an "AS IS" BASIS,

?* ?WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.

?* ?See the License for the specific language governing permissions and

?* ?limitations under the License.

?*/



package com.jialin.hadoop;


import java.io.IOException;

import java.util.StringTokenizer;


import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.Mapper;

import org.apache.hadoop.mapreduce.Reducer;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import org.apache.hadoop.util.GenericOptionsParser;


public class WordCount {


? public static class TokenizerMapper?

? ? ? ?extends Mapper{

? ??

? ? private final static IntWritable one = new IntWritable(1);

? ? private Text word = new Text();

? ? ??

? ? public void map(Object key, Text value, Context context

? ? ? ? ? ? ? ? ? ? ) throws IOException, InterruptedException {

? ? ? StringTokenizer itr = new StringTokenizer(value.toString());

? ? ? while (itr.hasMoreTokens()) {

? ? ? ? word.set(itr.nextToken());

? ? ? ? context.write(word, one);

? ? ? }

? ? }

? }

??

? public static class IntSumReducer?

? ? ? ?extends Reducer {

? ? private IntWritable result = new IntWritable();


? ? public void reduce(Text key, Iterable values,?

? ? ? ? ? ? ? ? ? ? ? ?Context context

? ? ? ? ? ? ? ? ? ? ? ?) throws IOException, InterruptedException {

? ? ? int sum = 0;

? ? ? for (IntWritable val : values) {

? ? ? ? sum += val.get();

? ? ? }

? ? ? result.set(sum);

? ? ? context.write(key, result);

? ? }

? }


? public static void main(String[] args) throws Exception {

? ? Configuration conf = new Configuration();

? ??

? ? String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();

? ? if (otherArgs.length != 2) {

? ? ? System.err.println("Usage: wordcount ");

? ? ? System.exit(2);

? ? }

? ? Job job = new Job(conf, "word count");

? ? job.setJarByClass(WordCount.class);

? ? job.setMapperClass(TokenizerMapper.class);

? ? job.setCombinerClass(IntSumReducer.class);

? ? job.setReducerClass(IntSumReducer.class);

? ? job.setOutputKeyClass(Text.class);

? ? job.setOutputValueClass(IntWritable.class);

? ? FileInputFormat.addInputPath(job, new Path(otherArgs[0]));

? ? FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

? ? System.exit(job.waitForCompletion(true) ? 0 : 1);

? }

}


运行时参数设置:


右击wordcount,选择run as - run configurations

?

参数根据自己实际情况


input目录下有两个文件input1和input2,内容分别为:hello world,hello hadoop

output目录不用手动创建。


运行:

右击wordcount-run as -run on hadoop


运行成功,查看output中的文件内容

hello 2

hadoop 1

world 1


?

注:测试中遇到问题的解决方式


解决权限问题

1、hadoop权限

如果当前登录windows的用户名和hadoop集群的用户名不一致,将没有权限访问,会报错


?目前做法是开发时将hadoop服务集群关闭权限认证,正式发布时,可以在服务器创建一个和hadoop集群用户名一致的用户,即可不用修改master的permissions策略。


详细参考我的文章:

http://blog.csdn.net/shan9liang/article/details/9734693
http://www.jialinblog.com/?p=172


?

2、windows下0700问题

这个问题真是纠结了我好几天,最后修还hadoop源码hadoop-core-1.2.0.jar中的FileUtil,重新编译 hadoop-core-1.2.0.jar?,替换掉原来的。才得以解决


详细参考我的文章:

http://blog.csdn.net/shan9liang/article/details/9734677

http://www.jialinblog.com/?p=174


?

七、总结


至此高校云平台的hadoop集群基本开发环境已经出来了,剩下的就是在此基础上进行丰富了。如果是简单的测试,推荐使用单机hadoop方式,或者伪分布式。我之所以不选择单机或伪分布式,只是想尽可能地模拟真实环境。大家按需选择吧。


?

作者:shan9liang 发表于2013-8-14 20:11:55 原文链接

阅读:51 评论:0 查看评论

windows 7 with eclipse 下hadoop应用开发环境搭建

Statement:
The content of this article is voluntarily contributed by netizens, and the copyright belongs to the original author. This site does not assume corresponding legal responsibility. If you find any content suspected of plagiarism or infringement, please contact admin@php.cn