Copyright © 2022-2024 aizws.net · 网站版本: v1.2.6·内部版本: v1.23.3·
页面加载耗时 0.00 毫秒·物理内存 74.2MB ·虚拟内存 1303.8MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
首先,您必须格式化配置的HDFS文件系统,打开namenode(HDFS服务器),然后执行以下命令。
$ hadoop namenode -format
格式化HDFS后,启动分布式文件系统。以下命令将启动namenode以及作为群集的数据节点。
$ start-dfs.sh
在服务器中加载信息后,我们可以使用'ls'来查找目录中文件的列表,文件的状态。下面给出的是可以传递给目录或文件名作为参数的ls的语法。
$ $HADOOP_HOME/bin/hadoop fs -ls <args>
假设我们在本地系统中有一个名为file.txt的文件中有数据,它应该保存在hdfs文件系统中。按照以下步骤在Hadoop文件系统中插入所需的文件。
您必须创建一个输入目录。
$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input
使用put命令将数据文件从本地系统传输并存储到Hadoop文件系统。
$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input
您可以使用ls命令验证文件。
$ $HADOOP_HOME/bin/hadoop fs -ls /user/input
假设我们在HDFS中有一个名为outfile的文件。下面是从Hadoop文件系统中检索所需文件的简单演示。
最初,使用cat命令查看来自HDFS的数据。
$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile
使用get命令将文件从HDFS获取到本地文件系统。
$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/
您可以使用以下命令关闭HDFS。
$ stop-dfs.sh
“$HADOOP_HOME/bin/hadoop fs” 中有更多的命令比这里演示的更多,尽管这些基本的操作会让你开始。运行不带附加参数的 ./bin/hadoop dfs 将列出可以使用Fs ...