我们专注攀枝花网站设计 攀枝花网站制作 攀枝花网站建设
成都网站建设公司服务热线:400-028-6601

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

hadoop分布式文件系统怎么导入和导出数据

本篇内容介绍了“hadoop分布式文件系统怎么导入和导出数据”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

公司主营业务:成都网站设计、做网站、移动网站开发等业务。帮助企业客户真正实现互联网宣传,提高企业的竞争能力。创新互联是一支青春激扬、勤奋敬业、活力青春激扬、勤奋敬业、活力澎湃、和谐高效的团队。公司秉承以“开放、自由、严谨、自律”为核心的企业文化,感谢他们对我们的高要求,感谢他们从不同领域给我们带来的挑战,让我们激情的团队有机会用头脑与智慧不断的给客户带来惊喜。创新互联推出温县免费做网站回馈大家。

要求

weblog_20140319.txt文件从本地文件系统复制到HDFS得一个指定文件夹下

操作步骤

1.在HDFS中创建一个存放目标文件的文件夹:hadoop fs -mkdir /data/weblogs.

2.将目标文件从本地系统复制到刚才新建的文件夹下:hadoop fs -copyFromLocal weblog_20140319.txt /data/weblogs

3.列出HDFS上weblog_20140319.txt文件的信息:hadoop fs -ls /data/weblogs/weblog_20140319.txt

4.将HDFS上的weblog_20140319.txt复制到本地系统的当前文件夹下:hadoop fs -copyToLocal /data/weblogs/weblog_20140319.txt ./weblog_20140319.txt

在Hadoop上处理的一些结果数据可能直接被外部系统使用,也可能需要其他系统进一步处理,或者MapReduce框架根本不符合应用场景,任何类似的情形都需要从HDFS上导出数据,下载数据最简单的方式就是Hadoop Shell.

从HDFS复制文件到本地系统时,需注意: 1.具有足够的可用空间 2.网络连接速度(HDFS中的文件大小在几个TB到几十个TB非常常见的,在1Gbit网络环境下,从HDFS中导出10TB数据到本地文件系统,最好也要消耗23个小时,当然前提还是具有足够的可用空间)

“hadoop分布式文件系统怎么导入和导出数据”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注创新互联网站,小编将为大家输出更多高质量的实用文章!


文章名称:hadoop分布式文件系统怎么导入和导出数据
标题链接:http://shouzuofang.com/article/iphsoe.html

其他资讯