Hadoop 计算一个目录的文件巨细ITeye - 乐橙lc8

Hadoop 计算一个目录的文件巨细ITeye

2019-01-10 20:35:28 | 作者: 雁桃 | 标签: 文件,巨细,目录 | 浏览: 340

 计算一个目录的文件巨细

 

 http://www.cnblogs.com/xd502djj/p/3799432.html

http://www.cnblogs.com/HondaHsu/p/4346354.html

map和reduce 个数的设定 (Hive优化)经典

http://blog.sina.com.cn/s/blog_9f48885501017dua.html

du

使用方法:hadoop fs -du URI [URI …]

指定目录时,显现该目录中所有文件的巨细,

而当只指定一个文件时,只显现此文件的巨细。
示例:
hadoop fs -du /user/hadoop/dir1
回来值:
成功回来0,失利回来-1。

dus

使用方法:hadoop fs -dus args

显现文件的巨细

hadoop fs -du hdfs://ns1/user/mart_coo/app.db/app_store_flat_stock_flow_check_wmserp/dt=2016-01-31; 897167  hdfs://ns1/user/mart_coo/app.db/app_store_flat_stock_flow_check_wmserp/dt=2016-01-31/000000_0.lzo 893708  hdfs://ns1/user/mart_coo/app.db/app_store_flat_stock_flow_check_wmserp/dt=2016-01-31/000001_0.lzo
版权声明
本文来源于网络,版权归原作者所有,其内容与观点不代表乐橙lc8立场。转载文章仅为传播更有价值的信息,如采编人员采编有误或者版权原因,请与我们联系,我们核实后立即修改或删除。

猜您喜欢的文章