程序師世界是廣大編程愛好者互助、分享、學習的平台,程序師世界有你更精彩!
首頁
編程語言
C語言|JAVA編程
Python編程
網頁編程
ASP編程|PHP編程
JSP編程
數據庫知識
MYSQL數據庫|SqlServer數據庫
Oracle數據庫|DB2數據庫
 程式師世界 >> 數據庫知識 >> Oracle數據庫 >> Oracle數據庫基礎 >> 教你怎樣在Oracle數據庫中高速導出/導入

教你怎樣在Oracle數據庫中高速導出/導入

編輯:Oracle數據庫基礎

導讀:迄今為止,導出/導入工具集仍是跨多個平台轉移數據所需勞動強度最小的首選實用工具,盡管人們常常抱怨它速度太慢。導入只是將每條記錄從導出轉儲文件中讀出來,然後使用常見的 INSERT INTO 命令將其插入到目標表中,因此導入可能是個很慢的過程,這一點並不讓人感到吃驚。進入Oracle Data Pump,Oracle Database 10g 中的導出/導入工具包的更新更快的同類工具,它被設計來成倍地加速這個過程。

Data Pump 反映了整個導出/導入過程的徹底革新。它不是使用常見的 SQL 命令,而是應用專用 API 來以更快得多的速度加載和卸載數據。在我的測試中,我看到導出性能比在直接模式下提高了 10-15 倍,導入過程性能提高了 5 倍。此外,與使用導出實用工具不同,它還能夠只取出特定類型的對象(如過程)。

Data Pump 導出

這個新的實用工具稱為 expdp,以和原來的導出 exp 區分開。在本例中,我們將用 Data Pump 來導出一個大表 CASES,大小約為 3GB。Data Pump 在服務器端使用文件處理來創建和讀取文件;因此,目錄作為位置使用。在這種情況下,我們將使用文件系統 /u02/dpdata1 來保存轉儲文件。

create directory dpdata1 as '/u02/dpdata1';

grant read, write on directory dpdata1 to ananda;

接下來,我們將導出數據:

expdp ananda/abc123 tables=CASES directory=DPDATA1

dumpfile=expCASES.dmp job_name=CASES_EXPORT

讓我們來分析該命令的各個部分。用戶 ID/口令組合、表和轉儲文件參數的意義是顯而易見的。與原來的導出不同,文件是在服務器(不是客戶端)上創建的。位置由目錄參數值 DPDATA1 指定,它指向之前創建的 /u02/dpdata1。這個進程還在目錄參數指定的位置上創建一個日志文件(同樣在服務器上)。默認地,這個進程使用一個名稱為 DPUMP_DIR 的目錄;因此可以創建它來代替 DPDATA1。

注意上面的參數 job_name,這是個特殊的參數,在原來的導出中沒有。所有的 Data Pump 工作都通過作業來完成。Data Pump 作業 — 與 DBMS 作業不同 — 只是服務器進程,它代表主進程處理數據。主進程(稱為主控制進程)通過高級隊列 (AQ) 來協調這項工作;它通過在運行期內創建的一個特殊的表(稱為主表)來實現這個目的。在我們的例子中,如果您在 expdp 運行時檢查用戶 ANANDA 的模式 ,您將注意到一個表 CASES_EXPORT 的存在(對應參數 job_name)。當 expdp 結束時,這個表被丟棄。

導出監控

當 Data Pump Export (DPE) 運行時,按 Control-C;它將阻止消息在屏幕上顯示,但不停止導出進程本身。相反,它將顯示 DPE 提示符(如下所示)。進程現在被認為處於“交互式”模式:

Export>

這種方法允許在這個 DPE 作業上輸入幾條命令。要查看概要,在提示符下使用 STATUS 命令:

Export> status

Job:CASES_EXPORT

Operation:EXPORT

Mode:TABLE

State:EXECUTING

Degree: 1

Job Error Count: 0

Dump file:/u02/dpdata1/expCASES.dmp

bytes written = 2048

Worker 1 Status:

State:EXECUTING

Object Schema:DWOWNER

Object Name:CASES

Object Type:TABLE_EXPORT/TBL_TABLE_DATA/TABLE/TABLE_DATA

Completed Objects: 1

Total Objects: 1

Completed Rows: 4687818

記住,這只是狀態顯示。導出在後台工作。要繼續在屏幕上查看消息,從 Export> 提示符下使用命令 CONTINUE_CLIENT。

並行操作

您可以通過 PARALLEL 參數為導出使用一個以上的線程來顯著地加速作業。每個線程創建一個單獨的轉儲文件,因此參數 dumpfile 應當擁有和並行度一樣多的項目。您可以指定通配符作為文件名,而不是顯式地輸入各個文件名,例如:

expdp ananda/abc123 tables=CASES directory=DPDATA1

dumpfile=expCASES_%U.dmp parallel=4 job_name=Cases_Export

注意 dumpfile 參數擁有一個通配符 %U,它指示文件將按需要創建,格式將為 expCASES_nn.dmp,其中 nn 從 01 開始,然後按需要向上增加。

在並行模式下,狀態屏幕將顯示四個工作進程。(在默認模式下,只有一個進程是可見的。)所有的工作進程同步取出數據,並在狀態屏幕上顯示它們的進度。

分離訪問數據文件和轉儲目錄文件系統的輸入/輸出通道是很重要的。否則,與維護 Data Pump 作業相關的開銷可能超過並行線程的效益,並因此而降低性能。並行方式只有在表的數量多於並行值並且表很大時才是有效的。

數據庫監控

您還可以從數據庫視圖獲得關於運行的 Data Pump 作業的更多信息。監控作業的主視圖是 DBA_DATAPUMP_JOBS,它將告訴您在作業上有多少個工作進程(列 DEGREE)在工作。另一個重要的視圖是 DBA_DATAPUMP_SESSIONS,當它與上述視圖和 V$SESSION 結合時將給出主前台進程的會話 SID。

select sid, serial#

from v$session s, dba_datapump_sessions d

where s.saddr = d.saddr;

這條指令顯示前台進程的會話。更多有用的信息可以從警報日志中獲得。當進程啟動時,MCP 和工作進程在警報日志中顯示如下:

kupprdp:master process DM00 started with pid=23,

OS id=20530 to execute -

SYS.KUPM$MCP.MAIN('CASES_EXPORT', 'ANANDA');

kupprdp:worker process DW01 started with worker

id=1, pid=24, OS id=20532 to execute -

SYS.KUPW$WORKER.MAIN('CASES_EXPORT', 'ANANDA');

kupprdp:worker process DW03 started with worker

id=2, pid=25, OS id=20534 to execute -

SYS.KUPW$WORKER.MAIN('CASES_EXPORT', 'ANANDA');

它顯示為數據泵操作啟動的會話的 PID。您可以用以下查詢找到實際的 SID:

select sid, program from v$session where paddr in

(select addr from v$process where pid in (23,24,25));

PROGRAM 列將對應警報日志文件中的名稱顯示進程 DM (為主進程)或 DW (為工作進程)。如果一個工作進程使用了並行查詢,比如說 SID 23,您可以在視圖 V$PX_SESSION 中看到它,並把它找出來。它將為您顯示從 SID 23 代表的工作進程中運行的所有並行查詢會話:

select sid from v$px_session where qcsid = 23;

從視圖 V$SESSION_LONGOPS 中可以獲得其它的有用信息來預測完成作業將花費的時間。

select sid, serial#, sofar, totalwork

from v$session_longops

where opname = 'CASES_EXPORT'

and sofar != totalwork;

列 totalwork 顯示總工作量,該列的 sofar 數量被加和到當前的時刻 — 因而您可以用它來估計還要花多長時間。

Data Pump 導入

不過,數據導入性能是 Data Pump 真正出色的地方。要導入先前導出的數據,我們將使用

impdp ananda/abc123 directory=dpdata1

dumpfile=expCASES.dmp job_name=cases_import

導入進程的默認行為是創建表和所有相關的對象,然後在表已存在時產生一個錯誤。如果您想把數據添加到一個現有的表中,您可以在上述命令行中使用 TABLE_EXISTS_ACTION=APPEND。

和使用 Data Pump 導入一樣,在進程中按 Control-C 將進入 Date Pump Import (DPI) 的交互模式;同樣,提示符是 Import>。

處理特定對象

您是否有過只需要從一個用戶導出特定的過程,以在一個不同的數據庫或用戶中重新創建這些過程的情況?與傳統的導出實用工具不同,Data Pump 允許您只導出特定類型的對象。例如,以下命令讓您只導出過程,而不導出其它任何東西 — 不導出表、視圖、甚至函數:

expdp ananda/iclaim directory=DPDATA1

dumpfile=expprocs.dmp include=PROCEDURE

要只導出一些特定的對象 — 比如說,函數 FUNC1 和過程 PROC1 — 您可以使用

expdp ananda/iclaim directory=DPDATA1 dumpfile=expprocs.dmp

include=PROCEDURE:\"=\'PROC1\'\",FUNCTION:\"=\'FUNC1\'\"

這個轉儲文件充當了源對象的一個備份。您甚至可以用它來創建 DDL 腳本,以供之後使用。一個稱為 SQLFILE 的特殊參數允許創建 DDL 腳本文件。

impdp ananda/iclaim directory=DPDATA1

dumpfile=expprocs.dmp sqlfile=procs.sql

該指令在 DPDATA1 指定的目錄中創建一個名稱為 procs.sql 的文件,並將對象的腳本包含在導出轉儲文件中。這種方法幫助您快速地在另一個模式中創建源對象。

利用參數 INCLUDE 允許您從轉儲文件中定義要包含或排除的對象。您可以使用子句 INCLUDE=TABLE:"LIKE 'TAB%'" 來僅導出那些名稱以 TAB 開頭的表。類似地,您可以使用結構 INCLUDE=TABLE:"NOT LIKE 'TAB%'" 來排除所有名稱以 TAB 開頭的表。作為另一種選擇,您可以使用 EXCLUDE 參數來排除特定的對象。

通過外部表,Data Pump 還可以用來傳輸表空間;它非常強大,能夠即時地重定義並行方式,將更多的表添加到一個現有的進程中等等。

  1. 上一頁:
  2. 下一頁:
Copyright © 程式師世界 All Rights Reserved