Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/oracle/9.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
自动提取数据-Oracle SQL Developer_Sql_Oracle_Oracle Sqldeveloper - Fatal编程技术网

自动提取数据-Oracle SQL Developer

自动提取数据-Oracle SQL Developer,sql,oracle,oracle-sqldeveloper,Sql,Oracle,Oracle Sqldeveloper,我通过SQLDeveloper连接到Oracle数据库,我想编写一个查询,返回每月一次的数据集,然后将该数据提取到一个分隔的文本文件中。我很清楚如何做到这一点,我想知道的是,是否有一种方法可以编写脚本来运行查询,并在一年内逐月提取数据。这样我就可以开始编写脚本,每当脚本完成时,我就会有12个文本文件,每个月一个 我可以手动操作,但数据量很大,我想让它在一夜之间运行。这样做的原因是,如果我们不尝试一次导入所有数据,我们使用数据的应用程序将运行得更快。我甚至不知道这是否可能,但如果可能的话,有人能给

我通过SQLDeveloper连接到Oracle数据库,我想编写一个查询,返回每月一次的数据集,然后将该数据提取到一个分隔的文本文件中。我很清楚如何做到这一点,我想知道的是,是否有一种方法可以编写脚本来运行查询,并在一年内逐月提取数据。这样我就可以开始编写脚本,每当脚本完成时,我就会有12个文本文件,每个月一个

我可以手动操作,但数据量很大,我想让它在一夜之间运行。这样做的原因是,如果我们不尝试一次导入所有数据,我们使用数据的应用程序将运行得更快。我甚至不知道这是否可能,但如果可能的话,有人能给我指出正确的方向吗


提前感谢。

学习SQL*Plus,这是一个非常强大的管理Oracle数据库的工具,例如,如果您开始搜索如何将数据从表提取到*.cvs文件,您将立即找到


如果您给我一个创建表格并填充表格的脚本,我将向您展示如何从表格中提取数据的示例。

首先编写参数化脚本:

define the_year=&1
define the_mon=&2

set lines etc
select * from the_table
where trunc(the_date , 'MM' ) = to_date ( '&the_year&the_mon', 'YYYYMM' )

spool extract_&the_year&the_mon.csv

/

spool off
然后是一个包装器脚本:

@the_script 2014 01
@the_script 2014 02
.
.
.
@the_script 2014 12
您可以获得cleverish并生成包装器:

sppol the_wrapper.sql
select '@the_script ' || to_char ( ADD_MONTHS ( trunc(sysdate,'YYYY' ), rn-1 ), 'YYYY MM' )
from ( select rownum rn from dual connect by level < 13 );
spool off

不要忘记设置选项,使生成的脚本可运行,例如设置验证关闭、设置反馈关闭等。

向我们展示如何将数据提取到分隔文本文件,并为我们提供表及其数据的脚本。我将通过转到网格,右击并选择提取到csv来提取数据。SQL查询很简单,比如:再次从日期'2014-01-01'和日期'2014-01-31'之间的所有_数据where Date_字段中选择*,你能给我们一个要处理的表吗?你回复时我正在编辑我的帖子,我无法使格式正常工作,但你应该了解它的要点。没什么特别的。谢谢,我需要做更多的研究,但这很有帮助。