利用ogg實現oracle到kafka的增量數據實時同步

[toc]

前言(為了安裝oraclegoldgate for oracle準備)

通過X11實現 Linux服務器圖形化界面顯示

1 背景描述

有些LINUX服務器出于性能和效率的考慮,通常都是沒有安裝圖形化界面的,那么圖形化程序在服務器上壓根兒就跑不起來,或者無法直接顯示出來,這就很尷尬了!那么如何解決這個問題呢?可以基于X11 Forwarding技術 + MobaXterm 工具,就可以輕松搞定,似不似很簡單?

2 原理介紹

2.1 X協議

Linux 本身是沒有圖形化界面的,所謂的圖形化界面系統只不過中 Linux 下的應用程序。這一點和 Windows 不一樣。Windows 從 Windows 95 開始,圖形界面就直接在系統內核中實現了,是操作系統不可或缺的一部分。Linux 的圖形化界面,底層都是基于 X 協議。
X 協議由 X server 和 X client 組成:


image.png

l X server 管理主機上與顯示相關的硬件設置(如顯卡、硬盤、鼠標等),它負責屏幕畫面的繪制與顯示,以及將輸入設置(如鍵盤、鼠標)的動作告知 X client。

l X client (即 X 應用程序) 則主要負責事件的處理(即程序的邏輯)。

舉個例子,如果用戶點擊了鼠標左鍵,因為鼠標歸 X server 管理,于是 X server 就捕捉到了鼠標點擊這個動作,然后它將這個動作告訴 X client,因為 X client 負責程序邏輯,于是 X client 就根據程序預先設定的邏輯(例如畫一個圓),告訴 X server 說:“請在鼠標點擊的位置,畫一個圓”。最后,X server 就響應 X client 的請求,在鼠標點擊的位置,繪制并顯示出一個圓。

2.2 X11 Forwarding

image.png

這么繞,有啥意義呢?當然有!
許多時候 X server 和 X client 在同一臺主機上,這看起來沒什么。但是, X server 和 X client 完全可以運行在不同的機器上,只要彼此通過 X 協議通信即可。于是,我們就可以做一些“神奇”的事情,比如像本文開頭談到的,在本地顯示 (X server),運行在服務器上的 GUI 程序 (X client)。這樣的操作可以通過 SSH X11 Forwarding (轉發) 來實現。
X11 中的 X 指的就是 X 協議,11 指的是采用 X 協議的第 11 個版本。

2.3 MobaXterm

image.png

那 MobaXterm 又是什么鬼?MobaXterm 是一款開源、免費的、全功能終端軟件。它與 PuTTY 類似,但卻比 PuTTY 要強大得多,其中一個很實用的功能就是 MobaXterm 自帶 X Server。這樣我們就不用勞神地去想怎么在 Windows 上啟動 X server 了。

小結一下,整個實現邏輯就是:
本地機器采用 MobaXterm (自帶 X server) 連接遠程服務器。然后,在服務器上運行 GUI 程序 (即 X client),通過 SSH X11 Forwarding,轉發到本地 (Windows 機器上)。

3 實戰介紹

3.1 服務器端(LINUX7.x)

3.1.1 修改SSH配置
[root@linux-template-7 ~]# cat /etc/ssh/sshd_config

X11Forwarding yes

X11UseLocalhost no -- 禁止將X11轉發請求綁定到本地回環地址上

AddressFamily inet -- 強制使用IPv4通道

配置不對請修改成上面這樣

3.1.2 重啟SSH服務
[root@linux-template-7 ~]# systemctl restart sshd.service

3.2 客戶端(WIN7)

3.2.1 安裝MobaXterm

https://mobaxterm.mobatek.net/download.html
image.png

3.2.2 打開本地終端

image.png

3.2.3 SSH連接服務器

image.png

3.2.4 執行xclock程序

已經彈出xclock圖形界面了,似不似很簡單,似不似很Easy,那就一起實踐下吧:)


image.png

正文

ogg即Oracle GoldenGate是Oracle的同步工具,本文講如何配置ogg以實現Oracle數據庫增量數據實時同步到kafka中,其中同步消息格式為json。
下面是我的源端和目標端的一些配置信息:

  • | 版本 | OGG版本 | ip | 別名
    ---|--- |--- |--- |---
    源端| Oracle 12c |Oracle GoldenGate 19.1.0.0 | 192.168.8.22| oracle|
    目標端| kafka_2.12-2.3.0 |Oracle GoldenGate for Big Data 19.1.0.0 | 192.168.8.31| bigdata |

1、下載

可在這里舊版本查詢下載
注意:源端和目標端的文件不一樣,目標端需要下載Oracle GoldenGate for Big Data,源端需要下載Oracle GoldenGate for Oracle具體下載方法見最后的附錄截圖。

2、源端(Oracle)配置

注意:源端是安裝了oracle的機器,oracle環境變量之前都配置好了

2.1 解壓

先建立ogg目錄

mkdir -p /opt/ogg
unzip V983320-01.zip

解壓后得到一個tar包,再解壓這個tar

tar xf fbo_ggs_Linux_x64_shiphome.tar -C /opt/ogg
chown -R oracle:oinstall /opt/ogg

(使oracle用戶有ogg的權限,后面有些需要在oracle用戶下執行才能成功)

2.2 配置ogg環境變量

為了簡單方便起見,我在/etc/profile里配置的,建議在生產中配置oracle的環境變量文件/home/oracle/.bash_profile里配置,為了怕出問題,我把OGG_HOME等環境變量在/etc/profile配置了一份,不知道這是否是必須的。

vim /etc/profile
export OGG_HOME=/opt/ogg
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/usr/lib
export PATH=$OGG_HOME:$PATH

使之生效

source /etc/profile

測試一下ogg命令

cd /opt/ogg
./runInstaller

按照上面得安裝以后會本mobaxtern彈出一個oracle安裝對話框


image.png

點擊下一步


image.png
image.png
image.png
image.png

如果命令成功即可進行下一步,不成功請檢查前面的步驟

2.3 oracle打開歸檔模式

su - oracle
sqlplus / as sysdba

執行下面的命令查看當前是否為歸檔模式

archive log list
SQL> archive log list 
Database log mode          No Archive Mode
Automatic archival         Disabled
Archive destination        USE_DB_RECOVERY_FILE_DEST
Oldest online log sequence     12
Current log sequence           14

若為Disabled,手動打開即可

conn / as sysdba (以DBA身份連接數據庫) 
shutdown immediate (立即關閉數據庫)
startup mount (啟動實例并加載數據庫,但不打開)
alter database archivelog; (更改數據庫為歸檔模式)
alter database open; (打開數據庫)
alter system archive log start; (啟用自動歸檔)

再執行一下

archive log list
Database log mode          Archive Mode
Automatic archival         Enabled
Archive destination        USE_DB_RECOVERY_FILE_DEST
Oldest online log sequence     12
Next log sequence to archive   14
Current log sequence           14

可以看到為Enabled,則成功打開歸檔模式。

2.4 Oracle打開日志相關

OGG基于輔助日志等進行實時傳輸,故需要打開相關日志確??色@取事務內容,通過下面的命令查看該狀態

select force_logging, supplemental_log_data_min from v$database;
FORCE_ SUPPLEMENTAL_LOG
------ ----------------
NO     NO

若為NO,則需要通過命令修改

alter database force logging;
alter database add supplemental log data;
ALTER SYSTEM SET ENABLE_GOLDENGATE_REPLICATION = TRUE;#設置允許GoldDate讀取日志

再查看一下為YES即可

SQL> select force_logging, supplemental_log_data_min from v$database;

FORCE_ SUPPLEMENTAL_LOG
------ ----------------
YES    YES

2.5 oracle創建復制用戶

首先root用戶建立相關文件夾,并賦予權限

mkdir -p /u01/app/oracle/oggdata/orcl
chown -R oracle:oinstall /u01/app/oracle/oggdata/orcl

然后執行下面sql

SQL> create tablespace oggtbs datafile '/u01/app/oracle/oggdata/orcl/oggtbs01.dbf' size 1000M autoextend on;

Tablespace created.

SQL>  create user ogg identified by ogg default tablespace oggtbs;

User created.

SQL> grant dba to ogg;

Grant succeeded.

2.6 OGG初始化

ggsci
create subdirs
ggsci
Oracle GoldenGate Command Interpreter for Oracle
Version 19.1.0.0.2 OGGCORE_19.1.0.0.0_PLATFORMS_190823.0013_FBO
Linux, x64, 64bit (optimized), Oracle 12c on Aug 23 2019 20:05:42
Operating system character set identified as UTF-8.

Copyright (C) 1995, 2019, Oracle and/or its affiliates. All rights reserved.



GGSCI (crmtstmicserv) 1> create subdirs

Creating subdirectories under current directory /root

Parameter files                /root/dirprm: created
Report files                   /root/dirrpt: created
Checkpoint files               /root/dirchk: created
Process status files           /root/dirpcs: created
SQL script files               /root/dirsql: created
Database definitions files     /root/dirdef: created
Extract data files             /root/dirdat: created
Temporary files                /root/dirtmp: created
Stdout files                   /root/dirout: created


GGSCI (crmtstmicserv) 2>

2.7 Oracle創建測試表

創建一個用戶,在該用戶下新建測試表,用戶名、密碼、表名均為 test_ogg。

create user test_ogg  identified by test_ogg default tablespace users;
grant dba to test_ogg;
conn test_ogg/test_ogg;
create table test_ogg(id int ,name varchar(20),primary key(id));

3 目標端(kafka)配置

3.1 解壓

mkdir -p /opt/ogg
unzip 123111_ggs_Adapters_Linux_x64.zip 
tar xf ggs_Adapters_Linux_x64.tar  -C /opt/ogg/

3.2 環境變量

vim /etc/profile
export OGG_HOME=/opt/ogg
export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64:$JAVA_HOME/jre/lib/amd64/server:$JAVA_HOME/jre/lib/amd64/libjsig.so:$JAVA_HOME/jre/lib/amd64/server/libjvm.so:$OGG_HOME/lib
export PATH=$OGG_HOME:$PATH
source /etc/profile

同樣測試一下ogg命令

ggsci

3.3 初始化目錄

create subdirs

4、OGG源端配置

4.1 配置OGG的全局變量

先切換到oracle用戶下

su oracle
cd /opt/ogg
ggsci

GGSCI (crmtstmicserv) 1> dblogin userid ogg password ogg
Successfully logged into database.
GGSCI (crmtstmicserv) 2> edit param ./globals

然后和用vim編輯一樣添加

oggschema ogg

4.2 配置管理器mgr

GGSCI (crmtstmicserv) 3> edit param mgr
PORT 7809
DYNAMICPORTLIST 7810-7909
AUTORESTART EXTRACT *,RETRIES 5,WAITMINUTES 3
PURGEOLDEXTRACTS ./dirdat/*,usecheckpoints, minkeepdays 3

說明:PORT即mgr的默認監聽端口;DYNAMICPORTLIST動態端口列表,當指定的mgr端口不可用時,會在這個端口列表中選擇一個,最大指定范圍為256個;AUTORESTART重啟參數設置表示重啟所有EXTRACT進程,最多5次,每次間隔3分鐘;PURGEOLDEXTRACTS即TRAIL文件的定期清理

4.3 添加復制表或者SCHEMA

GGSCI (crmtstmicserv) 4> add trandata test_ogg.test_ogg

Logging of supplemental redo data enabled for table TEST_OGG.TEST_OGG.

GGSCI (crmtstmicserv) 5> info trandata test_ogg.test_ogg

Logging of supplemental redo log data is enabled for table TEST_OGG.TEST_OGG.

Columns supplementally logged for table TEST_OGG.TEST_OGG: ID

如果添加按照schema 如下配置:

GGSCI (crmtstmicserv) 4> add schematrandata crm_report ALLCOLS #crm_report為我的schema名

Logging of supplemental redo data enabled for table TEST_OGG.TEST_OGG.

GGSCI (crmtstmicserv) 5> info schematrandata crm_report

4.4 配置extract進程

GGSCI (crmtstmicserv) 6> edit param extkafka
extract extkafka
dynamicresolution
SETENV (ORACLE_SID = "orcl")
SETENV (NLS_LANG = "american_america.AL32UTF8")
userid ogg,password ogg
exttrail /opt/ogg/dirdat/to
table test_ogg.test_ogg;

schema的話把table 這一行換成:

table crm_report.*;

說明:第一行指定extract進程名稱;dynamicresolution動態解析;SETENV設置環境變量,這里分別設置了Oracle數據庫以及字符集;userid ggs,password ggs即OGG連接Oracle數據庫的帳號密碼,這里使用2.5中特意創建的復制帳號;exttrail定義trail文件的保存位置以及文件名,注意這里文件名只能是2個字母,其余部分OGG會補齊;table即復制表的表名,支持*通配,必須以;結尾

添加extract進程:

GGSCI (crmtstmicserv) 16> add extract extkafka,tranlog,begin now
EXTRACT added.

(注:若報錯

ERROR: Could not create checkpoint file /opt/ogg/dirchk/EXTKAFKA.cpe (error 2, No such file or directory).

執行下面的命令再重新添加即可。

create subdirs

添加trail文件的定義與extract進程綁定:

GGSCI (crmtstmicserv) 17> add exttrail /opt/ogg/dirdat/to,extract extkafka
EXTTRAIL added.

4.5 配置pump進程

pump進程本質上來說也是一個extract,只不過他的作用僅僅是把trail文件傳遞到目標端,配置過程和extract進程類似,只是邏輯上稱之為pump進程

GGSCI (crmtstmicserv) 18> edit param pukafka
extract pukafka
passthru
dynamicresolution
userid ogg,password ogg
rmthost 192.168.44.129 mgrport 7809
rmttrail /opt/ogg/dirdat/to
table test_ogg.test_ogg;

schema的話把table 這一行換成:

table crm_report.*;

說明:第一行指定extract進程名稱;passthru即禁止OGG與Oracle交互,我們這里使用pump邏輯傳輸,故禁止即可;dynamicresolution動態解析;userid ogg,password ogg即OGG連接Oracle數據庫的帳號密碼rmthost和mgrhost即目標端(kafka)OGG的mgr服務的地址以及監聽端口;rmttrail即目標端trail文件存儲位置以及名稱。

分別將本地trail文件和目標端的trail文件綁定到extract進程:

GGSCI (crmtstmicserv) 1> add extract pukafka,exttrailsource /opt/ogg/dirdat/to
EXTRACT added.
GGSCI (crmtstmicserv) 2> add rmttrail /opt/ogg/dirdat/to,extract pukafka
RMTTRAIL added.

4.6 配置define文件

Oracle與MySQL,Hadoop集群(HDFS,Hive,kafka等)等之間數據傳輸可以定義為異構數據類型的傳輸,故需要定義表之間的關系映射,在OGG命令行執行:

GGSCI (crmtstmicserv) 3> edit param test_ogg
defsfile /opt/ogg/dirdef/test_ogg.test_ogg
userid ogg,password ogg
table test_ogg.test_ogg;

schema的話把table 這一行換成:

table crm_report.*;

在OGG主目錄下執行(oracle用戶):

./defgen paramfile dirprm/crm_report.prm

***********************************************************************
        Oracle GoldenGate Table Definition Generator for Oracle
 Version 11.2.1.0.3 14400833 OGGCORE_11.2.1.0.3_PLATFORMS_120823.1258
   Linux, x64, 64bit (optimized), Oracle 11g on Aug 23 2012 16:58:29
 
Copyright (C) 1995, 2012, Oracle and/or its affiliates. All rights reserved.


                    Starting at 2018-05-23 05:03:04
***********************************************************************

Operating System Version:
Linux
Version #1 SMP Wed Apr 12 15:04:24 UTC 2017, Release 3.10.0-514.16.1.el7.x86_64
Node: crmtstmicserv
Machine: x86_64
                         soft limit   hard limit
Address Space Size   :    unlimited    unlimited
Heap Size            :    unlimited    unlimited
File Size            :    unlimited    unlimited
CPU Time             :    unlimited    unlimited

Process id: 13126

***********************************************************************
**            Running with the following parameters                  **
***********************************************************************
defsfile /opt/ogg/dirdef/crm_report
userid ogg,password ***
table crm_report.*;
Retrieving definition for TEST_OGG.TEST_OGG



Definitions generated for 1 table in /opt/ogg/dirdef/crm_report

將生成的/opt/ogg/dirdef/crm_report發送的目標端ogg目錄下的dirdef里:

scp -r /opt/ogg/dirdef/crm_report root@slave1:/opt/ogg/dirdef/

5、OGG目標端配置

5.1 開啟kafka服務

cd /opt/kafka_2.11-1.1.0/
bin/zookeeper-server-start.sh config/zookeeper.properties
bin/kafka-server-start.sh config/server.properties

5.2 配置管理器mgr

GGSCI (bigdata) 1>  edit param mgr
PORT 7809
DYNAMICPORTLIST 7810-7909
AUTORESTART EXTRACT *,RETRIES 5,WAITMINUTES 3
PURGEOLDEXTRACTS ./dirdat/*,usecheckpoints, minkeepdays 3

5.3 配置checkpoint

checkpoint即復制可追溯的一個偏移量記錄,在全局配置里添加checkpoint表即可。

edit  param  ./GLOBALS
CHECKPOINTTABLE crm_report.checkpoint

5.4 配置replicate進程

GGSCI (bigdata) 4> edit param rekafka
REPLICAT rekafka
sourcedefs /opt/ogg/dirdef/test_ogg.test_ogg
TARGETDB LIBFILE libggjava.so SET property=dirprm/kafka.props
REPORTCOUNT EVERY 1 MINUTES, RATE 
GROUPTRANSOPS 10000
MAP test_ogg.test_ogg, TARGET test_ogg.test_ogg;

說明:REPLICATE rekafka定義rep進程名稱;sourcedefs即在4.6中在源服務器上做的表映射文件;TARGETDB LIBFILE即定義kafka一些適配性的庫文件以及配置文件,配置文件位于OGG主目錄下的dirprm/kafka.props;REPORTCOUNT即復制任務的報告生成頻率;GROUPTRANSOPS為以事務傳輸時,事務合并的單位,減少IO操作;MAP即源端與目標端的映射關系

5.5 配置kafka.props

cd /opt/ogg/dirprm/
vim kafka.props
gg.handlerlist=kafkahandler //handler類型
gg.handler.kafkahandler.type=kafka
gg.handler.kafkahandler.KafkaProducerConfigFile=custom_kafka_producer.properties //kafka相關配置
gg.handler.kafkahandler.topicMappingTemplate=crm_report_ogg //kafka的topic名稱,無需手動創建
gg.handler.kafkahandler.format=json //傳輸文件的格式,支持json,xml等
gg.handler.kafkahandler.mode=op  //OGG for Big Data中傳輸模式,即op為一次SQL傳輸一次,tx為一次事務傳輸一次
gg.classpath=dirprm/:/opt/kafka_2.11-1.1.0/libs/*:/opt/ogg/:/opt/ogg/lib
vim custom_kafka_producer.properties
bootstrap.servers=localhost:9092 //kafkabroker的地址
acks=1
compression.type=gzip //壓縮類型
reconnect.backoff.ms=1000 //重連延時
value.serializer=org.apache.kafka.common.serialization.ByteArraySerializer
key.serializer=org.apache.kafka.common.serialization.ByteArraySerializer
batch.size=102400
linger.ms=10000

其中需要將后面的注釋去掉,ogg不識別注釋,如果不去掉會報錯

5.6 添加trail文件到replicate進程

GGSCI (bigdata) 2> add replicat rekafka exttrail /opt/ogg/dirdat/to,checkpointtable test_ogg.checkpoint
REPLICAT added.

6、測試

6.1 啟動所有進程

在源端和目標端的OGG命令行下使用start [進程名]的形式啟動所有進程。
啟動順序按照源mgr——目標mgr——源extract——源pump——目標replicate來完成。
全部需要在ogg目錄下執行ggsci目錄進入ogg命令行。
源端依次是

start mgr
start extkafka
start pukafka

目標端

start mgr
start rekafka

可以通過info all 或者info [進程名] 查看狀態,所有的進程都為RUNNING才算成功
源端

GGSCI (crmtstmicserv) 5> info all

Program     Status      Group       Lag at Chkpt  Time Since Chkpt

MANAGER     RUNNING                                           
EXTRACT     RUNNING     EXTKAFKA    04:50:21      00:00:03    
EXTRACT     RUNNING     PUKAFKA     00:00:00      00:00:03

目標端

GGSCI (bigdata) 3> info all

Program     Status      Group       Lag at Chkpt  Time Since Chkpt

MANAGER     RUNNING                                           
REPLICAT    RUNNING     REKAFKA     00:00:00      00:00:01

6.2 異常解決

如果有不是RUNNING可通過查看日志的方法檢查解決問題,具體通過下面兩種方法

vim ggser.log

或者ogg命令行,以rekafka進程為例

GGSCI (bigdata) 2> view report rekafka

列舉其中我遇到的一個問題:
異常信息

SEVERE: Unable to set property on handler 'kafkahandler' (oracle.goldengate.handler.kafka.KafkaHandler). Failed to set property: TopicName:="test_ogg" (class: oracle.goldengate.handler.kafka.KafkaHandler).
oracle.goldengate.util.ConfigException: Failed to set property: TopicName:="test_ogg" (class: oracle.goldengate.handler.kafka.KafkaHandler).
at ......

具體原因是網上的教程是舊版的,設置topicName的屬性為:

gg.handler.kafkahandler.topicName=test_ogg

新版的這樣設置

gg.handler.kafkahandler.topicMappingTemplate=test_ogg

大家可根據自己的版本進行設置,附上stackoverflow原答案

I tried to move data from Oracle Database to Kafka using Golden gate adapter Version 12.3.0.1.0

In new version there is no topicname

The following resolves the topic name using the short table name
gg.handler.kafkahandler.topicMappingTemplate=test

In previous version we have gg.handler.kafkahandler.topicName=test

6.3 測試同步更新效果

現在源端執行sql語句

conn test_ogg/test_ogg
insert into test_ogg values(1,'test');
commit;
update test_ogg set name='zhangsan' where id=1;
commit;
delete test_ogg where id=1;
commit;

查看源端trail文件狀態

ls -l /opt/ogg/dirdat/to*
-rw-rw-rw- 1 oracle oinstall 1464 May 23 10:31 /opt/ogg/dirdat/to000000

查看目標端trail文件狀態

ls -l /opt/ogg/dirdat/to*
-rw-r----- 1 root root 1504 May 23 10:31 /opt/ogg/dirdat/to000000

查看kafka是否自動建立對應的主題

bin/kafka-topics.sh --list --zookeeper localhost:2181

在列表中顯示有test_ogg則表示沒問題
通過消費者看是否有同步消息

bin/kafka-console-consumer.sh --bootstrap-server 192.168.44.129:9092 --topic test_ogg --from-beginning
{"table":"TEST_OGG.TEST_OGG","op_type":"I","op_ts":"2018-05-23 10:31:28.000078","current_ts":"2018-05-23T10:36:48.525000","pos":"00000000000000001093","after":{"ID":1,"NAME":"test"}}
{"table":"TEST_OGG.TEST_OGG","op_type":"U","op_ts":"2018-05-23 10:31:36.000073","current_ts":"2018-05-23T10:36:48.874000","pos":"00000000000000001233","before":{},"after":{"ID":1,"NAME":"zhangsan"}}
{"table":"TEST_OGG.TEST_OGG","op_type":"D","op_ts":"2018-05-23 10:31:43.000107","current_ts":"2018-05-23T10:36:48.875000","pos":"00000000000000001376","before":{"ID":1}}

顯然,Oracle的數據已準實時同步到Kafka,格式為json,其中op_type代表操作類型,這個可配置,我沒有配置則按默認的來,默認為

gg.handler.kafkahandler.format.insertOpKey = I  
gg.handler.kafkahandler.format.updateOpKey = U  
gg.handler.kafkahandler.format.deleteOpKey = D

before代表操作之前的數據,after代表操作后的數據,現在已經可以從kafka獲取到同步的json數據了,后面可以用SparkStreaming和Storm等解析然后存到hadoop等大數據平臺里

6.4 SparkStreaming測試消費同步消息
具體代碼可參考Spark Streaming連接Kafka入門教程
下面附上消費成功的結果圖


image.png

7、更新:后續遇到的問題

在后面的使用過程中發現上面同步到kafka的json數據中少一些我們想要的一些,下面講一下我是如何解決的
首先建表:

CREATE TABLE "TCLOUD"."T_OGG2" 
   (    "ID" NUMBER(*,0), 
    "TEXT_NAME" VARCHAR2(20), 
    "AGE" NUMBER(*,0), 
    "ADD" VARCHAR2(100), 
    "IDD" VARCHAR2(100), 
     CONSTRAINT "T_OGG2_PK" PRIMARY KEY ("ID", "IDD")

   )

為什么不用之前建的表,主要是之前的字段太少,不容易看出問題,現在主要是增加幾個字段,然后id,idd是聯合主鍵。
看一下按照之前的配置,同步到kafka的數據(截取部分數據)

{"table":"TCLOUD.T_OGG2","op_type":"I","op_ts":"2018-05-31 11:46:09.512672","current_ts":"2018-05-31T11:46:15.292000","pos":"00000000000000001903","after":{"ID":4,"TEXT_NAME":null,"AGE":0,"ADD":null,"IDD":"8"}}
{"table":"TCLOUD.T_OGG2","op_type":"U","op_ts":"2018-05-31 11:49:10.514549","current_ts":"2018-05-31T11:49:16.450000","pos":"00000000000000002227","before":{},"after":{"ID":4,"TEXT_NAME":"lisi","IDD":"7"}}
{"table":"TCLOUD.T_OGG2","op_type":"U","op_ts":"2018-05-31 11:49:48.514869","current_ts":"2018-05-31T11:49:54.481000","pos":"00000000000000002373","before":{"ID":4,"IDD":"7"},"after":{"ID":1,"IDD":"7"}}

{"table":"TCLOUD.T_OGG2","op_type":"D","op_ts":"2018-05-31 11:52:38.516877","current_ts":"2018-05-31T11:52:45.633000","pos":"00000000000000003161","before":{"ID":1,"IDD":"7"}}

現在只有insert的數據是全的,update更新非主鍵字段before是沒有數據的,更新主鍵before只有主鍵的數據,delete只有before的主鍵字段,也就是update和delete的信息是不全的,且沒有主鍵信息(程序里是不能判斷哪一個是主鍵的),這樣對于程序自動解析同步數據是不利的(不同的需求可能不一樣),具體自己可以分析,就不啰嗦了,這里主要解決,有需要before和after全部信息和主鍵信息的需求。

7.1 添加before

在源端extract里添加下面幾行

GGSCI (crmtstmicserv) 33> edit param extkafka
GETUPDATEBEFORES
NOCOMPRESSDELETES
NOCOMPRESSUPDATES

重啟 extkafka

stop extkafka
start extkafka

然后測試

{"table":"TCLOUD.T_OGG2","op_type":"U","op_ts":"2018-05-31 14:48:55.630340","current_ts":"2018-05-31T14:49:01.709000","pos":"00000000000000003770","before":{"ID":1,"AGE":20,"IDD":"1"},"after":{"ID":1,"AGE":1,"IDD":"1"}}
{"table":"TCLOUD.T_OGG2","op_type":"U","op_ts":"2018-05-31 14:48:55.630340","current_ts":"2018-05-31T14:49:01.714000","pos":"00000000000000004009","before":{"ID":1,"AGE":20,"IDD":"2"},"after":{"ID":1,"AGE":1,"IDD":"2"}}
{"table":"TCLOUD.T_OGG2","op_type":"U","op_ts":"2018-05-31 14:48:55.630340","current_ts":"2018-05-31T14:49:01.715000","pos":"00000000000000004248","before":{"ID":1,"AGE":20,"IDD":"8"},"after":{"ID":1,"AGE":1,"IDD":"8"}}

發現update之后before里有數據即可,但是現在before和after的數據都不全(只有部分字段)

網上有的說只添加GETUPDATES即可,但我測試了沒有成功,關于每個配置項什么含義可以參考https://blog.csdn.net/linucle/article/details/13505939(有些配置的含義里面也沒有給出)
參考:http://www.itpub.net/thread-2083473-1-1.html

7.2 添加主鍵

在kafka.props添加

gg.handler.kafkahandler.format.includePrimaryKeys=true

重啟 rekafka

stop rekafka
start rekafka

測試:

{"table":"TCLOUD.T_OGG2","op_type":"U","op_ts":"2018-05-31 14:58:57.637035","current_ts":"2018-05-31T14:59:03.401000","pos":"00000000000000004510","primary_keys":["ID","IDD"],"before":{"ID":1,"AGE":1,"IDD":"1"},"after":{"ID":1,"AGE":20,"IDD":"1"}}

發現有primary_keys,不錯~

參考:http://blog.51cto.com/lyzbg/2088409

7.3 補全全部字段

如果字段補全應該是Oracle沒有開啟全列補充日志

SQL> select supplemental_log_data_all from v$database;  

SUPPLE
------
NO

通過以下命令開啟

SQL> alter database add supplemental log data(all) columns;

Database altered.

SQL> select supplemental_log_data_all from v$database;

SUPPLE
------
YES

SQL>

測試一下

{"table":"TCLOUD.T_OGG2","op_type":"U","op_ts":"2018-05-31 15:27:45.655518","current_ts":"2018-05-31T15:27:52.891000","pos":"00000000000000006070","primary_keys":["ID","IDD"],"before":{"ID":1,"TEXT_NAME":null,"AGE":1,"ADD":null,"IDD":"1"},"after":{"ID":1,"TEXT_NAME":null,"AGE":20,"ADD":null,"IDD":"1"}}
{"table":"TCLOUD.T_OGG2","op_type":"U","op_ts":"2018-05-31 15:27:45.655518","current_ts":"2018-05-31T15:27:52.893000","pos":"00000000000000006341","primary_keys":["ID","IDD"],"before":{"ID":1,"TEXT_NAME":null,"AGE":1,"ADD":null,"IDD":"2"},"after":{"ID":1,"TEXT_NAME":null,"AGE":20,"ADD":null,"IDD":"2"}}
{"table":"TCLOUD.T_OGG2","op_type":"U","op_ts":"2018-05-31 15:27:45.655518","current_ts":"2018-05-31T15:27:52.895000","pos":"00000000000000006612","primary_keys":["ID","IDD"],"before":{"ID":1,"TEXT_NAME":null,"AGE":1,"ADD":null,"IDD":"8"},"after":{"ID":1,"TEXT_NAME":null,"AGE":20,"ADD":null,"IDD":"8"}}

到現在json信息里的內容已經很全了,基本滿足了我想要的,附圖:

啟發我發現和Oracle全列補充日志沒有開啟有關的博客:https://blog.csdn.net/huoshuyinhua/article/details/79013387
開啟命令參考:https://blog.csdn.net/aaron8219/article/details/16825963

注:博客上講到,開啟全列補充日志會導致磁盤快速增長,LGWR進程繁忙,不建議使用。大家可根據自己的情況使用。

8、關于通配

如果想通配整個庫的話,只需要把上面的配置所有表名的改為,如test_ogg.test_ogg改為 test_ogg.,但是kafka的topic不能通配,所以需要把所有的表的數據放在一個topic即可,后面再用程序解析表名即可。

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,565評論 6 539
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,115評論 3 423
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 177,577評論 0 382
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,514評論 1 316
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,234評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,621評論 1 326
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,641評論 3 444
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,822評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,380評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,128評論 3 356
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,319評論 1 371
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,879評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,548評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,970評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,229評論 1 291
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,048評論 3 397
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,285評論 2 376

推薦閱讀更多精彩內容