Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/kubernetes/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Database 物化视图日志大小>;0,当刷新设置为提交时_Database_Oracle_Materialized Views - Fatal编程技术网

Database 物化视图日志大小>;0,当刷新设置为提交时

Database 物化视图日志大小>;0,当刷新设置为提交时,database,oracle,materialized-views,Database,Oracle,Materialized Views,我有一个跨越大约8个主表的直接物化视图 create materialized view MV REFRESH FAST ON COMMIT as SELECT... 我运行这个查询也是为了关注具体化的日志大小 select segment_name, SUM ( (BYTES) / (1024 * 1024)) "Allocated(MB)" from dba_segments where (segment_name, owner) IN ( select log_table, lo

我有一个跨越大约8个主表的直接物化视图

create materialized view MV
REFRESH FAST ON COMMIT as
  SELECT...
我运行这个查询也是为了关注具体化的日志大小

select segment_name, SUM ( (BYTES) / (1024 * 1024)) "Allocated(MB)" from dba_segments where (segment_name, owner) IN (
  select log_table, log_owner from dba_mview_logs where log_owner = 'XXX')
and segment_type = 'TABLE' GROUP BY segment_name;
由于我正在刷新提交,我不希望这些日志有机会增长。一旦我写入到表中,我希望视图会刷新,日志会清除


然而,我的大多数日志是0.0625mb,一个是27mb,另一个是2mb。我如何调查尺寸较大的原因?这两个表都具有较大的日志,其中包含可能包含较大数据的blob列。但我根本不明白为什么这些日志大于0。

从表数据段中删除数据时,表数据段不会收缩,而且段大小还取决于其增长的大小增量(基于表空间设置)

您看到的只是segmenbt增长到的最大大小,而不是它所持有的数据量——当您查询它时,它很可能是空的。只需计算MV日志表中的行数


您可以查看依赖于该表的所有mview,查看它们的上次刷新时间,并与mview日志中的SNAPTIME$$集进行比较。如果在snaptime$$之后所有mview都被刷新,请查看mview.purge_日志以删除这些行。

感谢我查看了这些,我的MV似乎是最新的数据,但是我的一个主表的日志中有277行。是否有人对如何调查这一问题并确定行未被清除的原因有任何建议。表上的清除日期早于其他主表。