我们专注攀枝花网站设计 攀枝花网站制作 攀枝花网站建设
成都网站建设公司服务热线:400-028-6601

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

hadoop中怎么将文件上传到指定datanode

这期内容当中小编将会给大家带来有关hadoop中怎么将文件上传到指定datanode,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

创新互联公司专注于沂南网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供沂南营销型网站建设,沂南网站制作、沂南网页设计、沂南网站官网定制、成都微信小程序服务,打造沂南网络公司原创品牌,更为您提供沂南网站排名全网营销落地服务。

package hgs.dfsclient.test;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.CreateFlag;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.permission.FsCreateModes;
import org.apache.hadoop.fs.permission.FsPermission;
import org.apache.hadoop.hdfs.DFSClient;
import org.apache.hadoop.hdfs.DFSOutputStream;
import org.apache.hadoop.hdfs.protocol.*;
import java.io.File;
import java.io.IOException;
import java.net.InetSocketAddress;
import java.net.URI;
import java.net.URISyntaxException;
import java.util.EnumSet;
import java.util.List;
import java.util.Random;
public class MainTest {
    public static void main(String[] args) throws IOException, URISyntaxException {
        Configuration conf =  new Configuration();
        conf.addResource(new File("D://hdfsconf/core-site.xml").toURI().toURL());
        conf.addResource(new File("D://hdfsconf/hdfs-site.xml").toURI().toURL());
        String url = conf.get("fs.defaultFS");
        System.out.println(url);
        Path path = new Path("/user/test.txt");
        DFSClient client = new DFSClient(new URI("hdfs://192.168.0.191:9000/"),conf);
        //favor datanode
        InetSocketAddress [] favor = {new InetSocketAddress("192.168.0.191", 50012)};
        createAndFillFile(client,conf,favor,"/user/test.txt4");
        listBlockLocation(client, conf, "/user/test.txt4",true );
        client.close();
    }
        //将数据传输到指定的datanode
    public static void createAndFillFile(DFSClient client,Configuration conf,
                                         InetSocketAddress [] favor,String src) throws IOException {
        DFSOutputStream dfsOutputStream = client.create(src, FsCreateModes.applyUMask(
                FsPermission.getFileDefault(), FsPermission.getUMask(conf)), EnumSet.of(CreateFlag.CREATE, CreateFlag.OVERWRITE),
                true, (short) 1, 32 * 1024 * 1024,
                null, 8192, null, favor, null);
        byte[] b = new byte[1024*3*3];
        for(int i = 0 ;i<100000;i++){
            fileByte(b);
            dfsOutputStream.write(b);
        }
        dfsOutputStream.close();
    }
    static Random rand = new Random(System.nanoTime());
    public static void fileByte(byte[] b){
        if(b != null ){
            rand.nextBytes(b);
        }
    }
        //获取文件的block位置
    public static void listBlockLocation(DFSClient client,Configuration conf,String src,boolean needLocation) throws IOException {
        DirectoryListing directoryListing = client.listPaths(src, HdfsFileStatus.EMPTY_NAME,
                needLocation);
        HdfsFileStatus[] fileStatuses = directoryListing.getPartialListing();
        for(int i=0 ; i  locatedBlocks1 = locatedBlocks.getLocatedBlocks();
            for(LocatedBlock lb : locatedBlocks1 ){
                DatanodeInfo[] locations = lb.getLocations();
                for(DatanodeInfo li : locations){
                    System.out.println("addr:"+li.getIpAddr()+"--port:"+li);
                }
            }
        }
    }
}

上述就是小编为大家分享的hadoop中怎么将文件上传到指定datanode了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注创新互联行业资讯频道。


当前文章:hadoop中怎么将文件上传到指定datanode
文章出自:http://shouzuofang.com/article/gpecpd.html

其他资讯