zqrx.net
当前位置:首页 >> hADoop删除命令大全 >>

hADoop删除命令大全

命令:hadoop fs -rmr /home/mm/lily2(要求是你把hadoop的bin加到PATH中,并开启hadoop) rm -rf /home/mm/lily2(这是删除linux文件系统的文件夹)

namenode就是master.必须要有一台启动namenode服务.============= 如果只需要 datanode,那么jps 命令后,查看到线程ID 然后kill 掉就好了. 注意 kill掉 namenode后,整个hadoop集群就宕掉了.

从fs -ls从列出来的文件看,这个文件夹/user/root/input是通过root用户创建的.说明你在从本地文件系统拷贝input目录到hdfs系统的时候,不是采用的hadoop用户,而是用root用户执行的拷贝命令,你可能忘记切换用户了,可以删除现在的input目

hdfs dfs -rmdir 呀

不用卸载直接停止服务,删除文件就好

用命令行bin/Hadoop fs -rm(r) 可以删除hdfs上的文件(夹)用HDFS的API也是可以的.如下:import java.net.URI;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;public

Configuration conf = new Configuration(); String uri="hdfs://hadoop1:9000"; FileSystem fs=FileSystem.get(URI.create(uri),conf); String s="/user/root/"+ args[1]; Path p=new Path(s); boolean a=fs.delete(p,true); System.out.println(a);

一个hadoop的安装目录,一个是java的安装目录.你需要进入到hadoop安装目录,然后执行格式化命令

如果是你的hadoop的安装目录在home下的话,可以杀掉进程之后,直接用rm -rf /home/hadoop直接删除就可以了

在Master节点上执行 hdfs namenode -format ,如果没有error和Exception 表示格式化成功,这个命令如果刚开始的话可以用,而且不能使用多次,后面最好不要用这个命令,比如我新增加一个slave节点以后,使用两次这个命令之后,发现文件系统坏掉了, 最后发现在格式化的时候,把 hdfs元数据存放的地点文件里面的版本池ID改变了, 于是我将这两个ID改为相同之后才可以用, 所以你搭建集群时用这个命令就可以了, 以后用到的话,有可能造成文件的丢失,和文件系统的异常.

网站首页 | 网站地图
All rights reserved Powered by www.zqrx.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com