十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
2.通过Xftp工具将压缩包拉到虚拟机/opt目录下(目录个人随意)
3.解压hadoop压缩包(命令:tar -zxvf hadoop-2.6.0-cdh6.14.2.tar.gz)
4.这里为了清晰,新建一个文件夹bigdata单独存放解压后的文件,并重命名
新建:mkdir bigdata
移动: mv hadoop-2.6.0-cdh6.14.2 ./bigdata/hadoop260
5.重头:修改配置文件,移动至/etc/hadoop目录下,ls命令,下图中圈选的文件是本次我们需要进行配置的
6.配置1:vi hadoop-env.sh修改如下位置,修改成自己JAVA_HOME的路径,可以echo $JAVA_HOME查看,修改完保存退出
7.配置2:vi core-site.xml修改如下位置
fs.defaultFS
hdfs://192.168.56.109:9000
hadoop.tmp.dir
/opt/hadoopdata
hadoop.proxyuser.root.users
*
hadoop.proxyuser.root.groups
*
8.配置3:vi hdfs-site.xml,和上一步一样的标签中加入如下代码
dfs.replication
1
9.配置4,这个文件需要自己copy,和上一步一样的标签中加入如下代码
命令:cp mapred-site.xml.template mapred-site.xml
配置:vi mapred-site.xml
mapreduce.framework.name
yarn
10.配置5:vi yarn-site.xml,中间有行注释可以删掉直接
yarn.resourcemanager.localhost
localhost
yarn.nodemanager.aux-services
mapreduce_shuffle
11.配置六:vi /etc/profile,移动至最后,加入以下代码
export HADOOP_HOME=/opt/bigdata/hadoop260
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
12.激活配置文件:source /etc/profile
13.格式化namenode:hdfs namenode -format
14.运行:start-all.sh,然后每一步都输入yes
15.查看运行情况:jps,如果能查看到如下5个进程,则代表配置运行成功,如果少哪一个,就去检查对应的配置文件
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。