Apache spark 如何使用sqoop仅将两个表导入配置单元
我在sqoop中看到要导入表,我们必须导入所有表,或者只需将表名导入到hive中,但我有100个表,我希望一次只导入两个表,Apache spark 如何使用sqoop仅将两个表导入配置单元,apache-spark,hadoop,hive,bigdata,sqoop,Apache Spark,Hadoop,Hive,Bigdata,Sqoop,我在sqoop中看到要导入表,我们必须导入所有表,或者只需将表名导入到hive中,但我有100个表,我希望一次只导入两个表, 如何实现此目的?您可以执行如下shell脚本: while read line; do DBNAME=`echo $line | cut -d'.' -f1` tableName=`echo $line | cut -d'.' -f2` sqoop import -Dmapreduce.job.queuename=$QUEUE_NAME -
如何实现此目的?您可以执行如下shell脚本:
while read line;
do
DBNAME=`echo $line | cut -d'.' -f1`
tableName=`echo $line | cut -d'.' -f2`
sqoop import -Dmapreduce.job.queuename=$QUEUE_NAME --connect '$JDBC_URL;databaseName=$DBNAME;username=$USERNAME;password=$PASSWORD' --table $tableName --target-dir $DATA_COLLECTOR/$tableName --fields-terminated-by '\001' -m 1
done<inputFile
读行时;
做
DBNAME=`echo$line | cut-d'.-f1`
tableName=`echo$line | cut-d'.-f2`
sqoop import-Dmapreduce.job.queuename=$QUEUE\u NAME--connect'$JDBC\u URL;databaseName=$DBNAME;用户名=$username;password=$password'--table$tableName--target dir$DATA\u COLLECTOR/$tableName--fields以'\001'-m 1'结尾
完成您可以执行如下shell脚本:
while read line;
do
DBNAME=`echo $line | cut -d'.' -f1`
tableName=`echo $line | cut -d'.' -f2`
sqoop import -Dmapreduce.job.queuename=$QUEUE_NAME --connect '$JDBC_URL;databaseName=$DBNAME;username=$USERNAME;password=$PASSWORD' --table $tableName --target-dir $DATA_COLLECTOR/$tableName --fields-terminated-by '\001' -m 1
done<inputFile
读行时;
做
DBNAME=`echo$line | cut-d'.-f1`
tableName=`echo$line | cut-d'.-f2`
sqoop import-Dmapreduce.job.queuename=$QUEUE\u NAME--connect'$JDBC\u URL;databaseName=$DBNAME;用户名=$username;password=$password'--table$tableName--target dir$DATA\u COLLECTOR/$tableName--fields以'\001'-m 1'结尾
使用从100个列表中选取的shell脚本,然后使用循环,它将一次运行2个。使用从100个列表中选取的shell脚本,然后使用循环,它将一次运行2个。