十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
小编给大家分享一下Hadoop如何安装、配置及基础使用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
创新互联于2013年成立,是专业互联网技术服务公司,拥有项目网站建设、做网站网站策划,项目实施与项目整合能力。我们以让每一个梦想脱颖而出为使命,1280元临朐做网站,已为上家服务,为临朐各地企业和个人服务,联系电话:18982081108
此主题介绍Hadoop的安装、配置及基础使用。
Hadoop基本信息
官网:http://hadoop.apache.org/ 官方教程:http://hadoop.apache.org/docs/current/
# 切换到工作空间 cd /opt/workspaces mkdir data/hadoop # 创建Hadoop NameNode目录 mkdir -p data/hadoop/hdfs/nn # 创建Hadoop DataNode目录 mkdir -p data/hadoop/hdfs/dn # 创建Hadoop临时目录 mkdir data/hadoop/tmp # 创建Hadoop日志目录 mkdir logs/hadoop
官方教程 http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.html#Pseudo-Distributed_Operation |
wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.7.2/hadoop-2.7.2.tar.gz tar -zxf hadoop-2.7.2.tar.gz rm -rf hadoop-2.7.2.tar.gz mv hadoop-2.7.2 ./frameworks/hadoop
vi ./frameworks/hadoop/etc/hadoop/hadoop-env.sh
# 添加JDK目录 export JAVA_HOME=/opt/env/java # 指定Hadoop日志写入到先前定义的目录 export HADOOP_LOG_DIR=/opt/workspaces/logs/hadoop
vi ./frameworks/hadoop/etc/hadoop/core-site.xml
fs.defaultFS hdfs://bd:9000 hadoop.tmp.dir file:/opt/workspaces/data/hadoop/tmp
hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,如hdfs-site.xml中不指定namenode和datanode的存放位置默认就放在这个路径中。hadoop.tmp.dir 默认存放在/tmp下,启动的时会被清空。 |
vi ./frameworks/hadoop/etc/hadoop/hdfs-site.xml
dfs.replication 1 dfs.namenode.name.dir file:/opt/workspaces/data/hadoop/hdfs/nn dfs.datanode.data.dir file:/opt/workspaces/data/hadoop/hdfs/dn dfs.permissions.enabled false
生产环境不允许dfs.permissions.enabled=false 这可能导致HDFS数据被非法修改! |
格式化NameNode
./frameworks/hadoop/bin/hdfs namenode -format
# 启动NameNode ./frameworks/hadoop/sbin/hadoop-daemon.sh start namenode # 启动DataNode ./frameworks/hadoop/sbin/hadoop-daemon.sh start datanode # 停止NameNode ./frameworks/hadoop/sbin/hadoop-daemon.sh stop namenode # 停止DataNode ./frameworks/hadoop/sbin/hadoop-daemon.sh stop datanode
不同的启动(停止)命令 start-all.sh 启动所有服务,不推荐使用 start-dfs.sh 启动HDFS start-mapred.sh 启动MapR |
# 查看HDFS文件 ./frameworks/hadoop/bin/hadoop fs -ls /
# 上传文件到HDFS hadoop fs -put localfile /user/hadoop/hadoopfile hdfs://: / hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir hadoop fs -put localfile hdfs://nn.example.com/hadoop/hadoopfile # 创建HDFS目录 hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2 hadoop fs -mkdir hdfs://nn1.example.com/user/hadoop/dir hdfs://nn2.example.com/user/hadoop/dir # 查看HDFS目录 hadoop fs -ls /user/hadoop/file1 # 查看HDFS文件内容 hadoop fs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2 hadoop fs -cat file:///file3 /user/hadoop/file4 # 修改HDFS文件所有者 hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ] # 修改HDFS文件权限 hadoop fs -chmod [-R] URI [URI ...] # 获取HDFS到本地 hadoop fs -copyToLocal [-ignorecrc] [-crc] URI
Name node is in safe mode
Hadoop启动的时候首先进入安全模式,安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性,根据策略必要的复制或者删除部分数据块,如果datanode丢失的block达到一定的比例会一直处于安全模式状态即只读状态。可以通过命令hadoop dfsadmin -safemode leave
命令强制离开。
以上是“Hadoop如何安装、配置及基础使用”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!