linux、渗透测试、网络安全、CTF、windows

myeclipse下与hdfs集成环境配置

programerchen:

  第一步集成插件部分不复述,网上可以搜到一堆贴子,而且每个版本的myeclipse集成方法也不一样,在此,只记录下插件面板调出来进行的参数配置。

  首先调出来的面板

 

  General中有三个地方要填:

 

  1. Map/Reduce Master 这个框里
  Host:就是jobtracker 所在的集群机器

     Port:就是jobtracker 的port

  这两个参数就是mapred-site.xml里面mapred.job.tracker里面的ip和port,无论是集成还是伪分布式都别写成localhost,不然windows里调不到。

 

  2. DFS Master 这个框里
  Host:就是namenode所在的集群机器,这里写localhost
  Port:就是namenode的port,这里写8888
  这两个参数就是core-site.xml里面fs.default.name里面的ip和port,无论是集成还是伪分布式都别写成localhost,不然windows里调不到。

 

  3 .user name:这个是连接hadoop的用户名,一般是hadoop的安装用户、启动用户。

 

  然后重启myeclipse。下一步配置 Advanced paramered选项卡。

 

  1. 设置hadoop.tmp.dir

  这个要跟上节建立的Hadoop集群配置中core-site.xml 中的hadoop.tmp.dir设置一样

  其他的会跟据上一步自行填写。

  如此之后,可以看见

  

  

  表示已经配置成功,启动hadoop后,一路点下去,应该会permissions报错,意思为windows用无权限访问linux上的hdfs。先不急。弄好上面后,先去下载一份hadoop的bin.tar.gz安装文件,将其解压在windows下。

然后配置好下面的参数。

   

 

  然后再下一份不带bin的源码文件,解压后,找到src/core/org/apache/hadoop/fs/FileUtil.java这个文件,我们需要将其中的checkReturnValue方法修改掉,让windows访问时不检查权限,将里面的内容全注释掉。然后编译成class文件,用其覆盖掉我们上一步解压目录中的hadoop-core-*.jar里的。这一步有没有java编程经验可能会比较麻烦。

  然后我们new一个mapReduceProject,可以复制一份wordcount进行测试。这里不做详述。只对最大的权限问题进行说明一下。配置下面的参数即可解决。.当然,上一步的编译替换也不能少。

  

  

 
评论
热度(1)

© redboy | Powered by LOFTER