Migrasi Diskgroup ASM Oracle RAC

Ini adalah catatan saat saya melakukan migrasi Diskgroup ASM Oracle RAC dari external storage ke external storage yang lain. Lakukan dengan hati-hati dan semua resiko yang muncul ditanggung penumpang 😀

1. Assign LUN baru dari storage yang baru ke semua node RAC, kemudian buat partisi di salah satu node RAC.

2. Jadikan disk baru tersebut menjadi disk ASM, misalkan di diskgroup ASMDATA sudah ada satu disk ASM dengan nama ASMDATA1, maka disk yang baru kita kasih nama ASMDATA2

3. Periksa kembali status diskgroup ASMDATA (login sebagai sysasm)

4. Rebalance

5. Monitor proses rebalance (login sebagai sysasm)

6. Jika sudah selesai proses rebalancenya, langkah selanjutnya adalah drop asm disk yang lama (ASMDATA1) dari diskgroup ASMDATA.

7. Unmount lun ASMDATA1 dari server.

Note :
1. Ada baiknya melakukan backup full sebelum melakukan rebalance.
2. Lakukan rebalance saat database sedang tidak sibuk.

ohasd failed to start: Inappropriate ioctl for device

Saat kita melakukan instalasi Oracle RAC, salah satu tahapan pentingnya adalah tahapan untuk menginstall Grid Infrastruktur, langkah-langkah terakhir saat melakukan instalasi Grid Infrastruktur ini salah satunya adalah menjalankan script “root.sh”

Error “ohasd failed to start: Inappropriate ioctl for device” ini terjadi saat kita menjalankan script “root.sh” tersebut, ini terjadi karena incompatibility pada upstart/init.

Error ini terjadi saat saya menginstall Oracle RAC menggunakan Oracle database versi 11.2.0 di Oracle Linux 6.4

Berikut adalah error lengkapnya :

Solusinya adalah :

1. Sebelum menjalankan script “root.sh” edit terlebih dulu berkas “s_crsconfig_lib.pm” yang ada di $GRID_HOME/crs/install/s_crsconfig_lib.pm

Tambahkan kode berikut sebelum bagian # Start OHASD

Kemudian simpan berkas yang sudah diubah tersebut.

2. Kemudian buat berkas konfigurasi “/etc/init/oracle-ohasd.conf” yang isinya adalah seperti berikut:

3. Lakukan langkah 1 dan 2 di node-node lainnya.

4. Jalankan script “root.sh”, jika sudah terlanjur pernah menjalankan script “root.sh”, maka kita perlu lakukan “deconfig” terlebih dahulu.

Kemudian jalankan kembali script “root.sh”

Note : Sebaiknya jika kita menggunakan Oracle Linux 6, software Oracle database yang digunakan adalah versi 11.2.0.3, dan error diatas tidak akan terjadi.

Sumber : https://community.oracle.com/thread/2410090

Menambahkan Node Baru di Oracle RAC

Ini adalah catatan pribadi saat melakukan “add Node” pada RAC database Oracle, sistem operasi menggunakan Oracle Linux 6 dan Database Oracle menggunakan versi 11.2.0.3, mudah-mudahan ada manfaatnya.

— Konfigurasi sistem operasi

Install sistem operasi yang sama persis dengan versi yang ada di node existing.

— Konfigurasi IP

sesuaikan dengan konfigurasi IP dari node existing, konfigurasi ini meliputi IP Public, IP Private, IP Virtual (VIP), dan IP SCAN.

— Konfigurasi Multipath untuk storage/disk yang digunakan oleh RAC

Assign LUN yang ada di node existing ke nodebaru, perlu kerjasama dengan storage administrator, atau dikerjain sendiri jika bisa 😀

— Konfigurasi ASMLib (saya prefer menggunakan ASMLib daripada UDEV)

Sampai langkah ini seharusnya semua disk yang digunakan oleh ASM sudah terdeteksi semua, jika tidak silahkan periksa kembali langkah-langkah sebelumnya.

Jangan diteruskan jika disk ASM tidak terdeteksi sebagian atau semuanya!!!

— Konfigurasi User

User GRID

User Oracle

Membuat direktori untuk GRID_HOME, ORACLE_HOME dan ORACLE_BASE

— Konfigurasi user equivalence

Test ssh menggunakan user oracle dan grid ke masing-masing node, seharusnya sudah bisa ssh tanpa password, jika masih gagal bisa menggunakan cara manual
menggunakan command “ssh-copy-id” dari dan ke masing-masing node, dan jangan lupa ssh-copy-id juga ke diri sendiri.

— Konfigurasi software tambahan

— Konfigurasi Parameter

Salin tempel konfigurasi paramater dari node existing

— Disable Selinux dan Firewall

— Restart nodebaru agar membaca semua paramater yang tadi di-salin.

— Pre-check Cluster Service

DI NODE EXISTING

— Extend Clusterware

DI NODE EXISTING

DI NODE BARU

— Extend Oracle Database Software

DI NODE EXISTING

DI NODE BARU

— Add Instance to Clustered Database

DI NODE BARU

Aktifkan X11 forwarding di putty, atau bisa juga via “export DISPLAY”

— Testing dan Monitoring

START instance di nodebaru

Periksa status database

Testing connect ke database

— Done

Step by Step Procedure to set up HADR replication between DB2 databases

DB2 provides database clustering as well as high availability and disaster recovery capabilities designed to maximize data availability during both planned and unplanned events. It also allows you to quickly and easily adapt to changing workloads with minimal involvement from database administrators, and frees application developers from the underlying complexities of database design and architecture.

DB2 high availability disaster recovery (HADR) feature provides a high availability solution for both partial and complete site failures. HADR protects against data loss by replicating data changes from a source or the primary server, to one or more standby servers.

This is step by step Procedure to set up HADR replication between DB2 databases.

ON THE PRIMARY:

1. Create sample db using the db2sampl command.

2. Enable it for log archiving.

Above command will enable to database for log archiving and keep the logs in the same active log directory. This will also place the db in backup pending state.

3. Take an offline backup.

4. Setting up HADR cfg parameters on Primary database.

5. Take an offline backup to be used for setting HADR.

 

ON THE STANDBY MACHINE:

Ensure both the servers are on the same db2level so that a mismatch situation does not occur. Run “db2level” command on both the servers to check whether they are on the same DB2 Version and Fix Pack.

6. FTP the backup image (from the primary machine) to the STANDBY MACHINE, you can using scp if you using Linux/Unix Machine

7. Restore the database

8. Setting up HADR cfg parameters on standby database.

9. Starting up HADR on the standby server “as standby”

 

ON THE PRIMARY MACHINE:

10. Starting up HADR on the primary server

11. Verifing HADR is up and running

Or you can use “db2top” command and then press “A” (capital)

 

Howto switch the database?

On the standby machine:

Note:
1. Hostname of the HADR pair cannot be the same on both the servers.
2. The instance name and the underlying userid on UNIX systems can be different. Make sure to update the correct name of the instance for the db cfg parameter HADR_REMOTE_INST to the correct value.

Reference : http://www-01.ibm.com/support/docview.wss?uid=swg21410648