十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
本篇文章为大家展示了JAVA API怎样进行读写HDFS,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
成都创新互联公司是一家专注于成都网站制作、做网站与策划设计,长白网站建设哪家好?成都创新互联公司做网站,专注于网站建设十多年,网设计领域的专业建站公司;建站业务涵盖:长白等地区。长白做网站价格咨询:028-86922220
package demo; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.FileStatus; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class PutMerge { public static void main(String[] args) throws IOException{ Configuration conf=new Configuration(); FileSystem hdfs=FileSystem.get(conf); FileSystem local=FileSystem.getLocal(conf); //设定输入目录于输出文件 Path inputDir=new Path(args[0]); Path hdfsFile=new Path(args[1]); //得到本地文件列表 FileStatus[] inputFiles=local.listStatus(inputDir); //生成HDFS输出流 FSDataOutputStream out=hdfs.create(hdfsFile); for(int i=0;i0){ out.write(buffer,0,bytesRead); } in.close(); } out.close(); } }
上述内容就是JAVA API怎样进行读写HDFS,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。