在Java中读取Hadoop文件可以通过Hadoop提供的API实现。以下是一个简单的示例代码,演示如何读取Hadoop文件:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class ReadHadoopFile {
public static void main(String[] args) {
try {
Configuration conf = new Configuration();
FileSystem fs = FileSystem.get(conf);
Path filePath = new Path("hdfs://<namenode>:<port>/path/to/hadoop/file");
FSDataInputStream inStream = fs.open(filePath);
byte[] buffer = new byte[1024];
int bytesRead = 0;
while ((bytesRead = inStream.read(buffer)) > 0) {
System.out.write(buffer, 0, bytesRead);
}
inStream.close();
fs.close();
} catch (Exception e) {
e.printStackTrace();
}
}
}
在上面的代码中,首先创建一个Configuration对象,并获取一个FileSystem实例。然后指定要读取的Hadoop文件的路径,使用open方法打开文件并获取到一个FSDataInputStream流。然后通过循环从流中读取数据,并输出到控制台。最后关闭流和文件系统对象。
需要注意的是,在实际使用中需要替换"hdfs://:/path/to/hadoop/file"为实际的Hadoop文件路径。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 55@qq.com 举报,一经查实,本站将立刻删除。转转请注明出处:https://www.szhjjp.com/n/959966.html