在平时的工作中,可能需要导入一些数据,有些表可能比较大,对于constraint的操作可能会耗费大量的时间,今天简单做了一些相关的测试,也提出了一些相关的优化方案,对结果进行比较,看看哪种才是比较合理的方法。

首先监控redo,undo的生成量也是衡量的一个标准。本次测试就简单从redo,undo,执行时间这三个方面进行总结。我准备采用shell脚本来进行监控。脚本内容见最后。

首先删除原有的表,重新创建,这个过程中也可以监控redo,undo和执行时间。数据量目前在40万左右,可以看到创建constraint的时候耗费了约70M左右的redo

然后在客户的机器上进行了简单的测试,配置要比本地好很多,测试的数据量是800万的。为了放大某些细节,总结的测试结果如下。

循序渐进调优ddl的案例 (79天)

各种多种场景最终都被否定了,最后可以考虑一下把constraint和index分离,加上parallel来处理。

采用这种方式,响应时间和redo的生成量都大幅度降低,从原来的17秒减少到了8秒

循序渐进调优ddl的案例 (79天)

脚本如下:

-------------------------------------------------------------------------

sqlplus -s n1/n1 <<EOF

set linesize 100

spool test_after_tmp.log

引用到的sql脚本内容如下:

redo_stat.sql

select a.name ,b.value from v$statname a,v$mystat b

undo_stat.sql

select a.name ,b.value from v$statname a,v$mystat b

相关文章:

  • 2022-02-07
  • 2021-11-21
  • 2022-12-23
  • 2022-12-23
  • 2021-12-05
  • 2021-06-30
猜你喜欢
  • 2021-11-10
  • 2021-10-06
  • 2021-10-19
  • 2021-06-18
  • 2022-12-23
  • 2021-07-08
相关资源
相似解决方案