第三次优化拆分 DELETE 操作 首先,我尝试从临时表 temp_mid_hubei 中取出一行记录: SQL" name="description" />

如何给Large Delete操作提速近千倍?(四)

发表于:2007-06-07来源:作者:点击数: 标签:
本文已经发表在ITPUB优化技术丛书,未经许可,不得转载。 本文已经发表在ITPUB优化技术丛书,未经许可,不得转载。 1.1. MI LY: 黑体; mso-ascii-font-family: Arial">第三次优化拆分 DELETE 操作 首先,我尝试从临时表 temp_mid_hubei 中取出一行记录: SQL

 本文已经发表在ITPUB优化技术丛书,未经许可,不得转载。

 本文已经发表在ITPUB优化技术丛书,未经许可,不得转载。

1.1. MILY: 黑体; mso-ascii-font-family: Arial">第三次优化——拆分DELETE操作

首先,我尝试从临时表 temp_mid_hubei 中取出一行记录:

SQL> select mid ,rowid from  temp_mid_hubei where rownum=1;

 

 

MID            ROWID

-------------- ------------------

00046000019808 AAAngMAGkAAA5SkAAA

 

 

Elapsed: 00:00:00.01

SQL>

 

 

 

 

然后,再根据条件在SSF表中删除相应的记录,看看需要多长时间:

SQL> DELETE from SSF WHERE mid='00046000019808';

 

 

1 rows deleted.                 

 

 

Elapsed: 00:00:00.01

SQL>

 

 

 

 

请注意,这样的操作执行几乎瞬间就可以完成,于是开始拆分DELETE的思路就应运而生:

1)        首先取出临时表中的一行(包括ROWID

2)        根据关键字在大表SSF中删除一行数据(使用唯一索引)

3)        根据最初记录的ROWID将这条记录从临时表中删除(以避免重复比较)

 

 

我修改了存储过程,如下:

CREATE OR REPLACE PROCEDURE DEL_HUBEI_SSF

AS

   v_i     NUMBER (10);

   v_mid   VARCHAR2 (30) := '';

   v_row   ROWID;

BEGIN

-- v_i:=10000;

   SELECT COUNT (*)

     INTO v_i

     FROM temp_mid_hubei_bak;

 

 

   WHILE v_i > 0

   LOOP

      SELECT mid, ROWID

        INTO v_mid, v_row

        FROM temp_mid_hubei_bak

       WHERE ROWNUM = 1;

 

 

      DELETE FROM SSF

            WHERE mid = v_mid;

 

 

      DELETE FROM temp_mid_hubei_bak

            WHERE ROWID = v_row;

 

 

      COMMIT;

      v_i := v_i - 1;

   END LOOP;

 

 

   DBMS_OUTPUT.put_line ('Full Finished!!!');

   DBMS_OUTPUT.put_line (   'Totally '

                         || TO_CHAR (v_i)

                         || ' records deleted from hubei_SSF !!!'

                        );

END;

      

       当然,实际操作的时候,由于这次任务中有几类的操作都需要用到临时表temp_mid_hubei,因此,在操作之前需要使用CTAScreate table … as select … )将该表做个备份。

    经过测试,使用这种方法删除10000条数据,需要大概1分钟时间,于是准备启用这个方法来完成任务。

    可是这样的操作也远远不能满足要求,因为删除10万行记录,并不意味着需要10*1分钟=10分钟,而是需要大约30多分钟!!

    看来,上一个方法的问题(大量操作的时间会成倍增长于少量操作的时间)再一次体现出来,于是,想到了第四次优化——使用FORALL 处理批量作业。

 

 

 

 


原文转自:http://www.ltesting.net