HDFS
HDFS客户端相关
HDFS的I/O流操作
上面api都是框架封装好的。现在可以尝试自己实现(我们可以采用IO流的方式实现数据的上传和下载)
HDFS文件上传
1.需求:把本地的test.txt文件上传到HDFS根目录
2.编写代码
@Test
public void putFileToHDFS() throws IOException, InterruptedException, URISyntaxException {
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "user_test");
// 2 创建输入流
FileInputStream fis = new FileInputStream(new File("test.txt"));
// 3 获取输出流
FSDataOutputStream fos = fs.create(new Path("/test.txt"));
// 4 流对拷
IOUtils.copyBytes(fis, fos, configuration);
// 5 关闭资源
IOUtils.closeStream(fos);
IOUtils.closeStream(fis);
fs.close();
}
HDFS文件下载
1.需求:从HDFS上下载test.txt文件到本地
2.编写代码
// 文件下载
@Test
public void getFileFromHDFS() throws IOException, InterruptedException, URISyntaxException{
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "user_test");
// 输入流:写出的;输出流:写入的——在这个里面本地就是输出流,hdfs就是输出流
// 2 获取输入流
FSDataInputStream fis = fs.open(new Path("/loadFile/test.txt"));
// 3 获取输出流
FileOutputStream fos = new FileOutputStream(new File("test.txt"));
// 4 流的对拷
IOUtils.copyBytes(fis, fos, configuration);
// 5 关闭资源
IOUtils.closeStream(fos);
IOUtils.closeStream(fis);
fs.close();
}
文件定位读取
1.需求:分块读取HDFS上的大文件,比如根目录下的/hadoop-2.7.2.tar.gz(首先手动将文件上传到hdfs——分成两块)
2.编写代码
(1)下载第一块
@Test
public void readFileSeek1() throws IOException, InterruptedException, URISyntaxException{
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "user_test");
// 2 获取输入流
FSDataInputStream fis = fs.open(new Path("/hadoop-2.7.2.tar.gz"));
// 3 创建输出流
FileOutputStream fos = new FileOutputStream(new File("/hadoop-2.7.2.tar.gz.part1"));
// 4 流的拷贝(若还用copyBytes来拷贝,则是拷贝的全部)
// 相当与1k
byte[] buf = new byte[1024];
// 读取128M
for(int i =0 ; i < 1024 * 128; i++){
fis.read(buf);
fos.write(buf);
}
// 5关闭资源
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);
fs.close();
}
(2)下载第二块
@Test
public void readFileSeek2() throws IOException, InterruptedException, URISyntaxException{
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "user_test");
// 2 打开输入流
FSDataInputStream fis = fs.open(new Path("/hadoop-2.7.2.tar.gz"));
// 3 定位输入数据位置(128M位置处)
fis.seek(1024*1024*128);
// 4 创建输出流
FileOutputStream fos = new FileOutputStream(new File("/hadoop-2.7.2.tar.gz.part2"));
// 5 流的对拷
IOUtils.copyBytes(fis, fos, configuration);
// 6 关闭资源
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);
fs.close();
}
(3)合并文件
在Window命令窗口中进入到下载文件目录下,然后执行命令,进行数据合并
type hadoop-2.7.2.tar.gz.part2 >> hadoop-2.7.2.tar.gz.part1
合并完成后,将hadoop-2.7.2.tar.gz.part1重新命名为hadoop-2.7.2.tar.gz。
待续…
接下来是HDFS数据流相关讲解,据说是面试重点~
后天就可以看到屁屁了,开心~
希望明天bug全解决