`
zy19982004
  • 浏览: 653863 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
博客专栏
F6f66edc-1c1a-3859-b76b-a22e740b7aa7
Hadoop学习
浏览量:249721
社区版块
存档分类
最新评论

Hadoop学习三十:Win7 Eclipse调试Centos Hadoop2.2-Mapreduce

 
阅读更多

 

一. 自己搭建开发环境

     今天自己搭建了一套Centos5.3 + Hadoop2.2 + Hbase0.96.1.1的开发环境,Win7 Eclipse调试MapReduce成功。可能是版本比较高的原因,出了问题,网上找不到完整解决方案,只能靠自己。

 

二. Hadoop安装

     这个就不啰嗦了,网上大把文章。我下载的是hadoop-2.2.0.tar.gz

  1. http://www.cnblogs.com/xia520pi/archive/2012/05/16/2503949.html 很详细的介绍了Hadoop Hdfs的安装。它这个不是Hadoop2.2的,但配置都大同小异。
  2. MapReduce的配置可以参考http://blog.sina.com.cn/s/blog_546abd9f0101i8b8.html

     安装成功后,能顺利查看以下几个页面,就OK了。我的集群环境是200master,201-203slave。

  1. dfs.http.address   192.168.1.200:50070
  2. dfs.secondary.http.address  192.168.1.200:50090
  3. dfs.datanode.http.address  192.168.1.201:50075
  4. yarn.resourcemanager.webapp.address  192.168.1.200:50030
  5. mapreduce.jobhistory.webapp.address 192.168.1.200:19888。这个好像访问不了。需要启动hadoop/sbin/mr-jobhistory-daemon.sh start historyserver才可以访问。

三. Hadoop2.x eclispe-plugin

     https://github.com/winghc/hadoop2x-eclipse-plugin

     目前这个插件还在开发中,你可以自己下载源码编译,网上也有人发布编译好的jar。

     http://blog.csdn.net/zythy/article/details/17397153 这个同学写的很详细了。

     需要注意一点的是,Hadoop installation directory里填写Win下的hadoop home地址,其目的在于创建MapReduce Project能从这个地方自动引入MapReduce需要的jar。解压hadoop-2.2.0.tar.gz到本地即可。

 

四. 各种问题

      上面一步完成后,创建一个MapReduce Project,运行时发现出问题了。

  1.  
    java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.
    
     跟代码就去发现是HADOOP_HOME的问题。如果HADOOP_HOME为空,必然fullExeName为null\bin\winutils.exe。解决方法很简单啦,乖乖的配置环境变量吧,不想重启电脑可以在MapReduce程序里加上System.setProperty("hadoop.home.dir", "...");暂时缓缓。org.apache.hadoop.util.Shell.java
      public static final String getQualifiedBinPath(String executable) 
      throws IOException {
        // construct hadoop bin path to the specified executable
        String fullExeName = HADOOP_HOME_DIR + File.separator + "bin" 
          + File.separator + executable;
    
        File exeFile = new File(fullExeName);
        if (!exeFile.exists()) {
          throw new IOException("Could not locate executable " + fullExeName
            + " in the Hadoop binaries.");
        }
    
        return exeFile.getCanonicalPath();
      }
    
    private static String HADOOP_HOME_DIR = checkHadoopHome();
    private static String checkHadoopHome() {
    
        // first check the Dflag hadoop.home.dir with JVM scope
        String home = System.getProperty("hadoop.home.dir");
    
        // fall back to the system/user-global env variable
        if (home == null) {
          home = System.getenv("HADOOP_HOME");
        }
         ...
    }
     
  2. 这个时候得到完整的地址fullExeName,我机器上是D:\Hadoop\tar\hadoop-2.2.0\hadoop-2.2.0\bin\winutils.exe。继续执行代码又发现了错误
    Could not locate executable D:\Hadoop\tar\hadoop-2.2.0\hadoop-2.2.0\bin\winutils.exe in the Hadoop binaries.
     就去一看,没有winutils.exe这个东西。去https://github.com/srccodes/hadoop-common-2.2.0-bin下载一个,放就去即可。
  3. 继续出问题
    at org.apache.hadoop.util.Shell.execCommand(Shell.java:661)
    at org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:639)
    at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:435)
      继续跟代码org.apache.hadoop.util.Shell.java
      public static String[] getSetPermissionCommand(String perm, boolean recursive,
                                                     String file) {
        String[] baseCmd = getSetPermissionCommand(perm, recursive);
        String[] cmdWithFile = Arrays.copyOf(baseCmd, baseCmd.length + 1);
        cmdWithFile[cmdWithFile.length - 1] = file;
        return cmdWithFile;
      }
    
      /** Return a command to set permission */
      public static String[] getSetPermissionCommand(String perm, boolean recursive) {
        if (recursive) {
          return (WINDOWS) ? new String[] { WINUTILS, "chmod", "-R", perm }
                             : new String[] { "chmod", "-R", perm };
        } else {
          return (WINDOWS) ? new String[] { WINUTILS, "chmod", perm }
                           : new String[] { "chmod", perm };
        }
      }
     cmdWithFile数组的内容为{"D:\Hadoop\tar\hadoop-2.2.0\hadoop-2.2.0\bin\winutils.exe", "chmod", "755", "xxxfile"},我把这个单独在cmd里执行了一下,发现
    无法启动此程序,因为计算机中丢失 MSVCR100.dll
     那就下载一个呗http://files.cnblogs.com/sirkevin/msvcr100.rar,丢到C:\Windows\System32里面。再次cmd执行,又来了问题
    应用程序无法正常启动(0xc000007b)
     下载http://blog.csdn.net/vbcom/article/details/7245186 DirectX_Repair来解决这个问题吧。记得修复完后要重启电脑。搞定后cmd试一下,很棒。
  4. 到了这里,已经看到曙光了,但问题又来了
    Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
     代码就去
        /** Windows only method used to check if the current process has requested
         *  access rights on the given path. */
        private static native boolean access0(String path, int requestedAccess);
     显然缺少dll文件,还记得https://github.com/srccodes/hadoop-common-2.2.0-bin下载的东西吧,里面就有hadoop.dll,最好的方法就是用hadoop-common-2.2.0-bin-master/bin目录替换本地hadoop的bin目录,并在环境变量里配置PATH=HADOOP_HOME/bin,重启电脑。
  5. 终于看到了MapReduce的正确输出output99。

五. 总结 

  1.  hadoop eclipse插件不是必须的,其作用在我看来就是如下三点(这个是一个错误的认识,具体请参考http://zy19982004.iteye.com/blog/2031172)。study-hadoop是一个普通project,直接运行(不通过Run on Hadoop这只大象),一样可以调试到MapReduce。
      1. 对hadoop中的文件可视化。
      2. 创建MapReduce Project时帮你引入依赖的jar。
      3. Configuration conf = new Configuration();时就已经包含了所有的配置信息。
  2. 还是自己下载hadoop2.2的源码编译好,应该是不会有任何问题的(没有亲测)。

 

六. 其它问题

  1.  还是
    Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
    代码跟到org.apache.hadoop.util.NativeCodeLoader.java去看
      static {
        // Try to load native hadoop library and set fallback flag appropriately
        if(LOG.isDebugEnabled()) {
          LOG.debug("Trying to load the custom-built native-hadoop library...");
        }
        try {
          System.loadLibrary("hadoop");
          LOG.debug("Loaded the native-hadoop library");
          nativeCodeLoaded = true;
        } catch (Throwable t) {
          // Ignore failure to load
          if(LOG.isDebugEnabled()) {
            LOG.debug("Failed to load native-hadoop with error: " + t);
            LOG.debug("java.library.path=" +
                System.getProperty("java.library.path"));
          }
        }
        
        if (!nativeCodeLoaded) {
          LOG.warn("Unable to load native-hadoop library for your platform... " +
                   "using builtin-java classes where applicable");
        }
      }
     这里报错如下
    DEBUG org.apache.hadoop.util.NativeCodeLoader - Failed to load native-hadoop with error: java.lang.UnsatisfiedLinkError: HADOOP_HOME\bin\hadoop.dll: Can't load AMD 64-bit .dll on a IA 32-bit platform
    
    
     怀疑是32位jdk的问题,替换成64位后,没问题了
    2014-03-11 19:43:08,805 DEBUG org.apache.hadoop.util.NativeCodeLoader - Trying to load the custom-built native-hadoop library...
    2014-03-11 19:43:08,812 DEBUG org.apache.hadoop.util.NativeCodeLoader - Loaded the native-hadoop library
     这里也解决了一个常见的警告
    WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
     

 

6
0
分享到:
评论
23 楼 emotionText 2016-01-06  
楼主你好!我运行报错
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/C:/Myeclipse8.5Workspace/bpmx3_dev/WebRoot/WEB-INF/lib/activemq-all-5.8.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/C:/Myeclipse8.5Workspace/bpmx3_dev/WebRoot/WEB-INF/lib/slf4j-log4j12-1.7.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
ERROR [main] (Shell.java:373) - Failed to locate the winutils binary in the hadoop binary path
java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.
at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:355)
at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:370)
at org.apache.hadoop.util.Shell.<clinit>(Shell.java:363)
at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:78)
at org.apache.hadoop.security.Groups.parseStaticMapping(Groups.java:93)
at org.apache.hadoop.security.Groups.<init>(Groups.java:77)
at org.apache.hadoop.security.Groups.getUserToGroupsMappingService(Groups.java:240)
at org.apache.hadoop.security.UserGroupInformation.initialize(UserGroupInformation.java:257)
at org.apache.hadoop.security.UserGroupInformation.ensureInitialized(UserGroupInformation.java:234)
at org.apache.hadoop.security.UserGroupInformation.loginUserFromSubject(UserGroupInformation.java:749)
at org.apache.hadoop.security.UserGroupInformation.getLoginUser(UserGroupInformation.java:734)
at org.apache.hadoop.security.UserGroupInformation.getCurrentUser(UserGroupInformation.java:607)
at org.apache.hadoop.hbase.security.User$SecureHadoopUser.<init>(User.java:285)
at org.apache.hadoop.hbase.security.User$SecureHadoopUser.<init>(User.java:281)
at org.apache.hadoop.hbase.security.User.getCurrent(User.java:185)
at org.apache.hadoop.hbase.security.UserProvider.getCurrent(UserProvider.java:88)
at org.apache.hadoop.hbase.client.HConnectionKey.<init>(HConnectionKey.java:71)
at org.apache.hadoop.hbase.client.ConnectionManager.getConnectionInternal(ConnectionManager.java:277)
at org.apache.hadoop.hbase.client.HBaseAdmin.<init>(HBaseAdmin.java:202)
at hbase.HBaseJavaAPI.createTable(HBaseJavaAPI.java:46)
at hbase.HBaseJavaAPI.main(HBaseJavaAPI.java:148)
表还能创建成功,这是什么原因呢???

22 楼 Ziven09 2015-10-13  
Hello你的World 写道
..分享下,那个错误确实是个配置的易错点,是eclipse指定本地hadoop安装路径的问题.我在hadoop集群里配的是yarn框架,那么在win7 eclipse指定hadoop安装路径时就得指定到 ../hadoop-2.2.0/share/hadoop/yarn这里  而我只指定到了../hadoop-2.2.0(因为这样在创建mr工程时可以自动导入jar包 所以总觉得这样是对的,会出现上述的问题)  当我更正为前者路径时,虽然不能自动导包,但程序能正常运行,此后才会出现bin目录的bug,就是lz给出的 winutils.exe  等问题,此后进展就很顺利了..
我是个菜鸟,向lz请教下,我现在是linux下的hadoop集群,win7 eclipse开发环境,现在是在eclipse里写mr熟悉api,但是对之后的生产等比较迷茫,想听听lz的建议,及对hadoop的见解.大家有什么建议,还请不吝赐教.


非常感谢,我也是一直被这个问题困扰,终于找到解决方案了。
21 楼 暂不存在 2015-08-30  
楼主我也是出了这个问题,但是我直接跑程序是没问题,我放在tomcat下运行程序就会出现这个问题,按照你说的放hadoop.dll也放了,但没有用,怎么办呢????
20 楼 sungang_1120 2015-06-01  
Hello你的World 写道
向lz请教下.在eclipse链接hadoop集群时需要注意什么么?我运行WordCount时直接出现 main 空指针.如下:
log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Exception in thread "main" java.lang.NullPointerException
at java.lang.ProcessBuilder.start(Unknown Source)
at org.apache.hadoop.util.Shell.runCommand(Shell.java:404)
at org.apache.hadoop.util.Shell.run(Shell.java:379)
at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:589)
at org.apache.hadoop.util.Shell.execCommand(Shell.java:678)
at org.apache.hadoop.util.Shell.execCommand(Shell.java:661)
at org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:639)
at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:435)
at org.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:277)
at org.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:125)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:344)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1268)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1265)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Unknown Source)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:1265)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1286)
at org.apache.hadoop.examples.WordCount.main(WordCount.java:84)
不清楚是哪里的问题.但是感觉是用户权限..想听听lz的配置,易错点在哪?谢谢

19 楼 107x 2015-05-19  
不错,谢谢!
18 楼 yulin_0418 2014-11-17  
好文章 指出的一点, 需要将hadoop.dll放到system32 下
17 楼 pandatyut 2014-10-15  
你好!我想问一下我运行程序的时候怎么报:
log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Exception in thread "main" org.apache.hadoop.util.Shell$ExitCodeException:
at org.apache.hadoop.util.Shell.runCommand(Shell.java:464)
at org.apache.hadoop.util.Shell.run(Shell.java:379)
at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:589)
at org.apache.hadoop.util.Shell.execCommand(Shell.java:678)
at org.apache.hadoop.util.Shell.execCommand(Shell.java:661)
at org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:639)
at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:435)
at org.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:277)
at org.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:125)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:344)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1268)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1265)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:1265)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1286)
at com.panda.test.MRModel.run(MRModel.java:70)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
16 楼 zy19982004 2014-08-18  
xjl456852 写道
楼主,你说    java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries. 
出这个错误,是因为win中没有这只HADOOP_HOME,但是win7中怎么会有HADOOP_HOME呢,设置后指向什么位置呢,win7中又不能安装hadoop,请问楼主这个问题具体怎么解决?谢谢

不好意思 这几天没有上网

HADOOP_HOME和JAVA_HOME一样的处理方式
把你在linux下的安装包   解压到win下某一目录即可
15 楼 xjl456852 2014-08-13  
楼主,你说    java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries. 
出这个错误,是因为win中没有这只HADOOP_HOME,但是win7中怎么会有HADOOP_HOME呢,设置后指向什么位置呢,win7中又不能安装hadoop,请问楼主这个问题具体怎么解决?谢谢
14 楼 zy19982004 2014-06-26  
sunyboy 写道
lz好,我将hadoop-eclipse的插件导入了eclipse创建项目时显示mapreduce但是不能创建,总是报错,hadoop的解压目录需要配置到win的环境变量中吗

不需要   报错可能是因为插件和hadoop版本及eclipse版本不一致
13 楼 sunyboy 2014-06-26  
lz好,我将hadoop-eclipse的插件导入了eclipse创建项目时显示mapreduce但是不能创建,总是报错,hadoop的解压目录需要配置到win的环境变量中吗
12 楼 zy19982004 2014-06-03  
jianguang0221 写道

HADOOP_HOME我配置了,可怎么还报上边的错


1.是在windows下配置 HADOOP_HOME
2.不行就System.setProperty("hadoop.home.dir", "..."); 
11 楼 jianguang0221 2014-06-02  
2014-06-02 13:43:11,550 ERROR [main] util.Shell (Shell.java:getWinUtilsPath(336)) - Failed to locate the winutils binary in the hadoop binary path
java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.
        at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:318)
        at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:333)
        at org.apache.hadoop.util.Shell.<clinit>(Shell.java:326)
        at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:76)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1324)
HADOOP_HOME我配置了,可怎么还报上边的错
10 楼 tangfan0214 2014-04-29  
zy19982004 写道
tangfanld 写道
楼主你好,我也遇到了这个错误
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
按照你的办法编译了hadoop.dll然后放到bin目录下并没有解决这个问题,然后我换了好几个版本的hadoop.dll仍然不行,我的系统是win7 32位的



不太确定你是什么原因 
System.loadLibrary("hadoop"); 看会不会报错 


试了下出现了
Exception in thread "main" java.lang.UnsatisfiedLinkError: no hadoop in java.library.path
at java.lang.ClassLoader.loadLibrary(ClassLoader.java:1709)
at java.lang.Runtime.loadLibrary0(Runtime.java:823)
at java.lang.System.loadLibrary(System.java:1030)
at score.ScoreAnalyze.main(ScoreAnalyze.java:60)
9 楼 zy19982004 2014-04-09  
tangfanld 写道
楼主你好,我也遇到了这个错误
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
按照你的办法编译了hadoop.dll然后放到bin目录下并没有解决这个问题,然后我换了好几个版本的hadoop.dll仍然不行,我的系统是win7 32位的



不太确定你是什么原因 
System.loadLibrary("hadoop"); 看会不会报错 
8 楼 tangfanld 2014-04-09  
楼主你好,我也遇到了这个错误
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
按照你的办法编译了hadoop.dll然后放到bin目录下并没有解决这个问题,然后我换了好几个版本的hadoop.dll仍然不行,我的系统是win7 32位的
7 楼 huiwq1990 2014-03-19  
lz,我把hadoop.dll放进bin下面了,怎么还是报NativeIO$Windows.access0(Ljava/lang/String;I)Z异常,可能错在什么地方了,谢谢!
6 楼 zy19982004 2014-03-14  
Hello你的World 写道
我是个菜鸟,向lz请教下,我现在是linux下的hadoop集群,win7 eclipse开发环境,现在是在eclipse里写mr熟悉api,但是对之后的生产等比较迷茫,想听听lz的建议,及对hadoop的见解.大家有什么建议,还请不吝赐教.


有生产环境去运用最好 没有就多看debug源码 

5 楼 Hello你的World 2014-03-13  
你好,我遇到了您同样的问题,但是我按照您的方法来测试了,但是还是不行,也不知道为什么同样是job.waitForCompletion(true)报错,您能给点详细信息吗?
如果集群配但是yarn框架就指定到hadoop安装包的yarn下,如果是mapreduce框架就指定到mapreduce下,是一样的异常信息?..
job.waitForCompletion(true)这是执行job入口,,能否贴下具体异常信息..
4 楼 asd51731 2014-03-13  
Hello你的World 写道
..分享下,那个错误确实是个配置的易错点,是eclipse指定本地hadoop安装路径的问题.我在hadoop集群里配的是yarn框架,那么在win7 eclipse指定hadoop安装路径时就得指定到 ../hadoop-2.2.0/share/hadoop/yarn这里  而我只指定到了../hadoop-2.2.0(因为这样在创建mr工程时可以自动导入jar包 所以总觉得这样是对的,会出现上述的问题)  当我更正为前者路径时,虽然不能自动导包,但程序能正常运行,此后才会出现bin目录的bug,就是lz给出的 winutils.exe  等问题,此后进展就很顺利了..
我是个菜鸟,向lz请教下,我现在是linux下的hadoop集群,win7 eclipse开发环境,现在是在eclipse里写mr熟悉api,但是对之后的生产等比较迷茫,想听听lz的建议,及对hadoop的见解.大家有什么建议,还请不吝赐教.

你好,我遇到了您同样的问题,但是我按照您的方法来测试了,但是还是不行,也不知道为什么同样是job.waitForCompletion(true)报错,您能给点详细信息吗?

相关推荐

    hadoop-2.4.0-Eclipse-plugin

    此插件是本人亲自编译好的可以让Eclipse上实现hadoop的mapreduce编程,目标集群运行了hadoop2.4.0,集群系统CENTOS6.5,jdk1.8.20,Eclipse运行在win7系统中

    hadoop-eclipse-plugin-2.7.7.jar

    自已下载代码在WIN10下编译的2.7.7 ,在CentOS Linux release 7.6.1810 (Core) / STS3.9.8 及HADOOP2.7.7 下,可正常进行mapreduce 开发调试.

    Hadoop集群pdf文档

    Hadoop_Hadoop集群(第7期)_Eclipse开发环境设置 Hadoop_Hadoop集群(第8期)_HDFS初探之旅 Hadoop_Hadoop集群(第9期)_MapReduce初级案例 Hadoop_Hadoop集群(第10期)_MySQL关系数据库 Web(Json-Lib类库使用...

    Hadoop3高可用集群的CentOS7三节点镜像文件和MapReduce代码样例.docx

    Hadoop安装学习的学生、技术工程师

    Hadoop集群(1-11期)

    Hadoop集群·Eclipse开发环境设置(第7期) Hadoop集群·HDFS初探之旅(第8期) Hadoop集群·MapReduce初级案例(第9期) Hadoop集群·MySQL关系数据库(第10期) Hadoop集群·常用MySQL数据库命令(第10期副刊) ...

    虾皮工作室文档 - Hadoop入门教程

    该文档是虾皮老师... 8)Hadoop集群_第7期_Eclipse开发环境设置_V1.0  9)Hadoop集群_第8期_HDFS初探之旅_V1.0  8)Hadoop集群_第9期_MapReduce初级案例_V1.0  10)Hadoop集群_第10期_MySQL关系数据库_V1.0

    hadoop入门最好的文档

    8.细细品味Hadoop_Hadoop集群(第7期)_Eclipse开发环境设置 9.细细品味Hadoop_Hadoop集群(第8期)_HDFS初探之旅 10.细细品味Hadoop_Hadoop集群(第9期)_MapReduce初级案例 ........................

    centos安装配置hadoop

    centos安装配置hadoop Hadoop是Apache软件基金会旗下的一个开源分布式计算平台。以Hadoop分布式文件系统(HDFS,Hadoop Distributed Filesystem)和MapReduce(Google MapReduce的开源实现)为核心的Hadoop为用户...

    hadoop,centos6.5以上安装版

    hadoop centos6.5编译的安装版。包括hdfs,MapReduce。

    hadoop2.9.1centos7.4下载地址

    自己花费3个小时编译可以用的,在Centos7.4上面编译成功。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

    hadoop测试代码

    centos7安装hadoop2.6.0后,使用eclipse安装mapreduce插件,并测试是否正常使用

    基于hadoop的电影可视化系统本文电影评分预测系统使用hadoop与centos7搭建的虚拟机系统,有报告 和代码

    这次小组作业我们巩固了前面学习的Hadoop环境搭建、mysql数据库相关知识,在此基础上对hive数据仓库、mapreduce工作原理进行学习。通过本次作业我们也学习到了一些linux系统的安装、基本使用、系统架构以及一些常见...

    Hadoop概述及CentOS安装和使用

    Hadoop–入门Hadoop概述及CentOS安装和使用一. Hadoop概述1.HDFS2.MapReduce二.准备工作1.安装虚拟机软件 Vmware Workstation Pro2.安装Linux操作系统(CentOS7.4)下载CentOS镜像文件安装CentOSCentOS配置 Hadoop...

    HDP-GPL-3.0.1.0-centos7-gpl.tar.gz 用于部署HDP大数据平台,处理和分析各种类型的数据

    它提供了一套完整的工具和组件,包括Hadoop分布式文件系统(HDFS)、YARN资源管理器、MapReduce计算框架、Hive数据仓库、HBase分布式数据库等。HDP还支持其他开源工具和技术,如Apache Spark、Apache Kafka、Apache ...

    hadoop-2.8.0-RC3-bin.zip

    hadoop-2.8.0-RC3里面的bin文件夹 解压覆盖即用,内含hadoop.dll和winutils.exe文件 记得将两个文件复制到C:\windows\System32目录下

    hadoop-3.0.0-bin.zip

    hadoop-3.0.0里面的bin文件夹 解压覆盖即用,内含hadoop.dll和winutils.exe文件 记得将两个文件复制到C:\windows\System32目录下

    hadoop-2.8.3-bin.zip

    hadoop-2.8.3里面的bin文件夹 解压覆盖即用,内含hadoop.dll和winutils.exe文件 记得将两个文件复制到C:\windows\System32目录下

    hadoop-2.7.1-bin.zip

    hadoop-2.7.1里面的bin文件夹 解压覆盖即用,内含hadoop.dll和winutils.exe文件 记得将两个文件复制到C:\windows\System32目录下

    hadoop-2.6.4-bin.zip

    hadoop-2.6.4里面的bin文件夹 解压覆盖即用,内含hadoop.dll和winutils.exe文件 记得将两个文件复制到C:\windows\System32目录下

Global site tag (gtag.js) - Google Analytics