在有三個Node的環境,將特定的Device加入現有DG來執行Multi-Hop(SRDF/Sync&SRDF/AR)同步
因 Node1,Node2 & Node3已在個別的Storage內定義TimeFinder Pair的關係,所以不需再加入DG內
在Node2(SRDF/AR)執行下列動作:
symld -g DG名 add dev sym numder (Sym Number為Node1的STD Number)
symld -g XXX add dev 0363
symbcv -g DG名 associate dev sym numder -rdf (Sym Number為Node2的BCV Number)
symbcv -g XXX associate dev 12FB -rdf
symbcv -g DG名 associate dev sym numder -rrdf (Sym Number為Node3的BCV Number)
symbcv -g XXX associate dev 079F -rrdf
在Node3執行下列動作:
symld -g DG名_node3 add dev sym numder (Sym Number為Node3的STD Number)
symld -g XXX add dev 0733
symbcv -g DG名_node3 associate dev sym numder (Sym Number為Node3的BCV Number)
symbcv -g XXX associate dev 079F
=======================================
範例:
symdg create prod -type RDF1
symld -g prod add dev 0001 -sid 344402 DEV001
symbcv -g prod associate dev 000A BCV001
symbcv -g prod associate dev 000C -rdf RBCV001
symbcv -g prod associate dev 0009 -bcv -rdf BRBCV001
symbcv -g prod associate dev 0004 -rrdf RRBCV001
2010年5月29日 星期六
DiskGroup(DG)的export & import妙用
今天為了加大TableSpace又搞了一陣子
由於Datafile 是raw device,所以得加大及新增lv
但放置TableSpace的 VG 裡的Free PP不夠我再開一個lv
只好再把一顆hdiskpowerxxx 加入VG,後續Production的動作順利完成~~~~
BUT!!
由於我們家的Production有Multi-Hop的DR機制,所以還得檢查另外兩個HOP的機器能不能正常運作.
確認完Sync機制的Node2正常運作後,開始看ASync的Node3啦!
importvg -y VG hdiskpoweryyy .........挖哩ㄌㄟ
原來這一顆是之前先從xx DG刪除的Device,好啦~要把這一顆加回來,還得加入成特定DG的特定DEVICE編號,如DEV199
所以我採用export & import的撇步
動作流程如下:
step 1
Stop SRDF/AR
Stop SRDF/Sync,Split Node1&Node2 Sync
Split Node2的STD&BCV
Split Node3的STD&BCV
Suspend Node2 R1/BCV&Node3 R2/STD
login to Node 2
symdg export XX_db -f XX_db.list
cp XX_db.list XX_db.list.orig
vi XX_db.list ,
依XX_db.list裡的格式將三個Node需新增的sym number加進來(STD,RBCV,RRBCV)
再三確認XX_db.list和原DG
symdg delete XX_db -force
symdg show XX_db ,找不到XX_db了
symdg import XX_db -f XX_db.list symdg show XX_db,symmir -g XX_db que -rdf,symmir -g XX_db que -rrbcv,symrdf -g XX_db que -rbcv
確認都看的到相對應的DEV後,就輕鬆多啦
step 2
login to Node 3
symdg export XX_db_dr -f XX_db_dr.list
cp XX_db_dr.list XX_db_dr.list.orig
vi XX_db_dr.list ,
依XX_db_dr.list裡的格式將Node 3需新增的sym number加進來(STD,BCV)
再三確認XX_db_dr.list和原DG
symdg delete XX_db_dr -force
symdg show XX_db_dr ,找不到XX_db_dr了
symdg import XX_db_dr -f XX_db_dr.list
symdg show XX_db_dr,symmir -g XX_db_dr que
正常!! GOOD!
Step3
啟動SRDF/Sync,wait until Synchronized
啟動SRDF/AR,確認同步情形正常!! GOOD Again!!
等同步完再來繼續測Node3吧
由於Datafile 是raw device,所以得加大及新增lv
但放置TableSpace的 VG 裡的Free PP不夠我再開一個lv
只好再把一顆hdiskpowerxxx 加入VG,後續Production的動作順利完成~~~~
BUT!!
由於我們家的Production有Multi-Hop的DR機制,所以還得檢查另外兩個HOP的機器能不能正常運作.
確認完Sync機制的Node2正常運作後,開始看ASync的Node3啦!
importvg -y VG hdiskpoweryyy .........挖哩ㄌㄟ
原來這一顆是之前先從xx DG刪除的Device,好啦~要把這一顆加回來,還得加入成特定DG的特定DEVICE編號,如DEV199
所以我採用export & import的撇步
動作流程如下:
step 1
Stop SRDF/AR
Stop SRDF/Sync,Split Node1&Node2 Sync
Split Node2的STD&BCV
Split Node3的STD&BCV
Suspend Node2 R1/BCV&Node3 R2/STD
login to Node 2
symdg export XX_db -f XX_db.list
cp XX_db.list XX_db.list.orig
vi XX_db.list ,
依XX_db.list裡的格式將三個Node需新增的sym number加進來(STD,RBCV,RRBCV)
再三確認XX_db.list和原DG
symdg delete XX_db -force
symdg show XX_db ,找不到XX_db了
symdg import XX_db -f XX_db.list symdg show XX_db,symmir -g XX_db que -rdf,symmir -g XX_db que -rrbcv,symrdf -g XX_db que -rbcv
確認都看的到相對應的DEV後,就輕鬆多啦
step 2
login to Node 3
symdg export XX_db_dr -f XX_db_dr.list
cp XX_db_dr.list XX_db_dr.list.orig
vi XX_db_dr.list ,
依XX_db_dr.list裡的格式將Node 3需新增的sym number加進來(STD,BCV)
再三確認XX_db_dr.list和原DG
symdg delete XX_db_dr -force
symdg show XX_db_dr ,找不到XX_db_dr了
symdg import XX_db_dr -f XX_db_dr.list
symdg show XX_db_dr,symmir -g XX_db_dr que
正常!! GOOD!
Step3
啟動SRDF/Sync,wait until Synchronized
啟動SRDF/AR,確認同步情形正常!! GOOD Again!!
等同步完再來繼續測Node3吧
2010年5月27日 星期四
GHOST HDD後,不能開機
傳統GHOST有分ghost disk和ghost partition
A:再從SOURCE GHOST 一份,
C.開機後在 MS-DOS 模式下執行 fdisk /mbr
重新啟動電腦即可
D.在 Welcome to Setup (歡迎使用安裝程式) 畫面中按 R 或 F10 進入「Windows 修復主控台」
進入主控台後, 輸入 fixmbr
重新啟動電腦即可
E.用dd啦,從Source Dump一份MBR下來,再Restore到新硬碟
備份指令:dd if=/dev/hda of=/tmp/mbr.back bs=512 count=1
還原指令:dd if=/xxx/mbr.back of=dev/xxxa
F.用spfdisk
spfdisk /mbr 或進spfdisk後, 選擇重建MBR
http://blog.cemcl.com.tw/?tag=mbr
一般來說若選擇ghost disk可以連MBR一起clone起來
但若還是很不幸遇到Restore disk後無法開機,可執行下方動作A:再從SOURCE GHOST 一份,
這次要進到option內,選擇Image/Tape > Image Boot >Accept
再繼續做Disk to Image或Disk to Disk囉 !
再繼續做Disk to Image或Disk to Disk囉 !
B.指令mode使用ghost -ib 也和上面的意義一樣
重新啟動電腦即可
D.在 Welcome to Setup (歡迎使用安裝程式) 畫面中按 R 或 F10 進入「Windows 修復主控台」
進入主控台後, 輸入 fixmbr
重新啟動電腦即可
E.用dd啦,從Source Dump一份MBR下來,再Restore到新硬碟
備份指令:dd if=/dev/hda of=/tmp/mbr.back bs=512 count=1
還原指令:dd if=/xxx/mbr.back of=dev/xxxa
F.用spfdisk
spfdisk /mbr 或進spfdisk後, 選擇重建MBR
http://blog.cemcl.com.tw/?tag=mbr
2010年5月26日 星期三
Weblogic 8.1 Connection Pool (JDBC,DB)Setup
話說我家的WEB AP Server最近要做異動
Weblogic Manager建立完成後,又要將原DB改連到另一台DB Server上,
備忘一下:
由於另一台DB Server的Oracle資料及設定完全和原DB一樣,所以我只修改IP就好啦
在修改之前,當然要做個test
Check Webloigc Server 各Node Server如AdminServer,ManagerServer可正常連接到後端DB
ping 另一台DB Server 正常telnet xxxxxxx 1521 不會過
跟我家長官確認後,確定有firewall在礙事,
恩~~長官一陣忙,申請開firewall
telnet xxxxxxx 1521 OK
好~因為正式機和備援機ORACLE SID 是一樣的,所以不用改
正式機和備援機有差異的只有IP和Hostname而已先將Manager Server11,Manager Server21,Manager Server31 Shutdown停止Weblogic Service
Login AdminServer Console,修改JDBC Connection Pool 的URL欄位
只將URL修改成jdbc:oracle:thin:@新IP:1521:ORACLESID
帳號密碼不需修改 ,再點選Apply
原URL: jdbc:oracle:thin:@10.1.1.1:1521:ORACLESID
接下來重新啟動Admin Server&三台Manager Server
透過Console 到JDBC Connection Pool 測試各主機可否正常連接DB,OK
開始測試網頁OK
測試Web Applications網頁OK後,交由AP人員測試
PS:若只想讓其中幾台Manager Server連到不同DB Server,也可以將JDBC的URL欄位內的IP改為Hostname,透過各主機的/etc/hosts的定義,來連線到不同的DB Server.(For Test用)
訂閱:
文章 (Atom)