时间:2021-07-01 10:21:17 帮助过:4人阅读
##SqlServer作为元数据
$ sqoop import --connect ‘jdbc:sqlserver://IP:1433;username=NAME;password=PWD;database=DataName‘ --table T_SQOOP_TEST --where “$conditions” --target-dir ‘mydir‘ --delete-target-dir
$ sqoop import --hive-import --connect jdbc:mysql://IP:PORT/ --username USER --password ‘PASSWD‘ --table T_SQOOP_TEST --m 1--target-dir ‘mydir‘ --delete-target-dir参数说明:
| 参数名 | 参数说明 | 
| --hive-import | 数据导入到Hive | 
| --hive-overwrite | 覆盖Hive表中已存在的数据 | 
| --create-hive-table | 设置了此参数,导入时如果hive中表已经存在,则导入任务失败。默认为false | 
| --hive-table <table-name> | 指定导入到Hive中的表名 | 
| --hive-drop-import-delims | 导入Hive时,去除字符型字段中的\n(换行符),\r(回车符)和\01(标题开始符)字符。 | 
| --hive-delims-replacement | 导入Hive时,用用户定义的字符串替换字符型字段中的\n,\r和\01字符。 | 
sqoop Mysql 导入到hdfs、hive
标签:oda ado 官网 连接 head map targe pwd 数字