牛骨文教育服务平台(让学习变的简单)
博文笔记

使用hadoop distcp从ftp拷贝文件到hdfs

创建时间:2015-07-24 投稿人: 浏览次数:3443

DistCp(Distributed Copy)是用于大规模集群内部或者集群之间的高性能拷贝工具。 它使用Map/Reduce实现文件分发,错误处理和恢复,以及报告生成。 它把文件和目录的列表作为map任务的输入,每个任务会完成源列表中部分文件的拷贝。

官网链接:http://hadoop.apache.org/docs/r2.7.1/hadoop-distcp/DistCp.html

最常用的就是从一个集群拷贝文件到第二个集群:

这将从第一个集群中复制/foo目录(和它的内容)到第二个集群中的/bar目录下,所以第二个集群会有/bar/foo目录结构。如果/bar不存在,则会新建一个。可以指定多个源路径,并且所有的都会被复制到目标路径。源路径必须是绝对路径:

bash$ hadoop distcp hdfs://namenode1/foo hdfs://namenode2/bar 

==============================================================================


distcp从ftp拷贝文件到hdfs:

hadoop distcp ftp://fptuser:ftppassword@host/ftp-path/ hdfs://node:port1/hdfs-path/

============= example================

hdfs目录:hdfs dfs -ls /user/wanghc

ftp文件目录:/root/README.txt

默认端口:21

hadoop distcp ftp://root:uway123@192.168.8.192/root/README.txt hdfs://192.168.8.109:8020/user/wanghc


如果ftp端口修改为 9022

hadoop distcp ftp://root:uway123@192.168.8.192:9022/root/README.txt hdfs://192.168.8.109:8020/user/wanghc

声明:该文观点仅代表作者本人,牛骨文系教育信息发布平台,牛骨文仅提供信息存储空间服务。