Membuat “Recycle bin” pada Samba4

Kehilangan data saat file yang ada di “sharing data” samba terhapus?, solusinya adalah dengan cara membuat  Recycle bin, agar file yang dihapus tidak langsung hilang tapi akan ada di Recycle bin.

Berikut ini langkah-langkahnya :

1. Tambahkan konfigurasi berikut pada konfigurasi bagian file sharing di berkas smb.conf

[share]
        path = /data
        comment = Sharing Data
        read only = no
        browseable = yes
        writeable = yes
        guest ok = yes

        vfs object = recycle
        config file = /usr/local/samba/etc/recycle.conf
        recycle:repository = Recycle Bin
        recycle:keeptree = Yes
        recycle:versions = Yes

2. Buat berkas konfigurasinya :

# vi /usr/local/samba/etc/recycle.conf
name = Recycle Bin
mode = KEEP_DIRECTORIES|VERSIONS|TOUCH
maxsize = 0
exclude = *.tmp|*.temp|*.o|*.obj|~$*|*.~??|*.log|*.trace
excludedir = /tmp|/temp|/cache
noversions = *.doc|*.ppt|*.dat|*.ini|*.xls|*.pdf

3. Setelah selesai silakan restart samba
4. Test dengan menghapus file yang ada pada folder sharing “share”, maka akan muncul folder “Recycle Bin”

Referensi : Membuat Recycle Samba Linux

Noted :
Pada link referensi tersebut, jika kita salin tempel konfigurasi “smb.conf ” nya, maka akan muncul error saat samba start :

smbd: Ignoring unknown parameter "config-file"

Kesimpulannya adalah pada samba4 parameter “config-file” tidak ada, yang ada adalah “config file”.

Samba: “Unable to open printcap file /etc/printcap for read!” – Solved

Saat start samba4 muncul error berikut :

Samba: “Unable to open printcap file /etc/printcap for read!”

Solusinya :

Tambahkan baris berikut di berkas konfigurasi smb.conf pada section [global]

[global]
   printcap name = /dev/null
   load printers = no

Failed to load session “blankon”

Hari ini entah mungkin karena salah menghapus paket atau apa, ketika hendak login ke BlankOn muncul error “Failed to load session “blankon””

Sudah coba hapus kemudian install kembali paket “blankon-session” tetap saja tidak bisa masuk ke gui BlankOn.

Solusi sementara sampai ketemu solusi tokcer tanpa harus install ulang adalah saat prompt login muncul, tekan CTRL + ALT + F1, muncul terminal masukkan username dan password, kemudian un-install “blankon-session”, “sudo apt-get remove blankon-session” yang otomatis juga menghapus “manokwari”. Setelah paket “blankon-session” dihapus, restart mesin dan login seperti biasa.

Error : 0516-008 varyonvg: LVM system call returned an unknown error code (3) – Solved

Ini adalah cerita saat relokasi server IBM Power 750, OS AIX 6.1, dimana server tersebut terkoneksi ke DS5100 melalui SAN Switch.

Dilokasi yang baru server ini kemudian dikonfigurasi ulang agar bisa terkoneksi dengan SAN Swicth yang baru dan storage DS5100 existing, setelah berhasil terkoneksi dengan baik, dan semua disk terdeteksi di server tersebut, server direstart agar otomatis terkonfigurasi seperti saat sebelum relokasi.

Hasilnya tidak seperti yang diinginkan, beberapa mountpoint hilang saat dicek menggunakan command “df -g”, selidik punya selidik mountpoint yang hilang adalah mountpoint yang berasal dari “datavg”.

Untuk melihat “lv” apa saja yang ada di “datavg” saya gunakan:

root@nexus:/> lsvg -l datavg
0516-010 : Volume group must be varied on; use varyonvg command

Dan ternyata error seperti diatas, sesuai saran saya jalankan command selanjutnya :

root@nexus:/> varyonvg datavg
0516-008 varyonvg: LVM system call returned an unknown
error code (3).

Dan ternyata muncul error juga. Disini mulai panik, karena waktu downtime yang diberikan sudah akan habis.

Berikut cara troubleshootingnya.

FYI, “datavg” ini awalnya terdiri dari beberapa “pv”, yaitu hdisk6, hdisk7, hdisk8, dan hdisk9

root@nexus:/> lspv
...
hdisk6          none
hdisk7          00e4518dadfaa546                    datavg          active
hdisk8          none
hdisk9          00e4518dadfafedc                    datavg          active

Terlihat bahwa “pvid” dari hdisk6 dan hdisk8 hilang.

root@nexus:/>lquerypv -h /dev/hdisk6 80 10
00000080   00E4518D ADFA5C20 00000000 00000000  |..Q... ........|

Terlihat bahwa “pvid” dari hdisk6 adalah 00E4518DADFA5C20

root@nexus:/>lquerypv -h /dev/hdisk8 80 10
00000080   00E4518D ADFAEF1C 00000000 00000000  |..Q.............|

Terlihat bahwa “pvid” dari hdisk6 adalah 00E4518DADFAEF1C

Lakukan “lqueryvg” pada salah satu “pv” yang “pvid” nya normal, yang ada pada “datavg” (hdisk7 atau hdisk9)

root@nexus:/> lqueryvg -tAvp hdisk7
Physical:      

00e4518dadfa5c20                1   0
00e4518dadfaa546                1   0
00e4518dadfaef1c                1   0
00e4518dadfafedc                1   0

Terlihat bahwa “datavg” mempunyai 4 “pv” dengan “pvid” masing-masing, dimana salah duanya adalah “pvid” dari hdisk6 dan hdisk8.

Sampai disini kondisi aman, dikarenakan “pvid” masing-masing disk tidak corrupt, setelah itu proses perbaikan dijalankan :

root@nexus:/> exportvg datavg
root@nexus:/> varyoffvg datavg

Remove device disk yang tergabung dalam “datavg” dan juga remove device HBA nya.

root@nexus:/> rmdev -dl hdisk6
root@nexus:/> rmdev -dl hdisk7
root@nexus:/> rmdev -dl hdisk8
root@nexus:/> rmdev -dl hdisk9

root@nexus:/> lsdev -Cc adapter | grep fcs
fcs0    Available 00-00 4Gb FC PCI Express Adapter (df1000fe)
fcs1    Available 00-01 4Gb FC PCI Express Adapter (df1000fe)

root@nexus:/> rmdev -Rdl fcs0
root@nexus:/> rmdev -Rdl fcs1

“rmdev” ini berfungsi menghapus device tersebut dari system, tapi tidak menghapus data yang ada didalamnya, setelah dihapus, deteksi ulang device menggunakan command “cfgmgr”

root@nexus:/> cfgmgr -v

Kemudian periksa kembali pv yang ada, dan Alhamdulillan “pvid” nya sudah kembali terdeteksi.

root@nexus:/> lspv
...
hdisk6          00e4518dadfa5c20
hdisk7          00e4518dadfaa546
hdisk8          00e4518dadfaef1c
hdisk9          00e4518dadfafedc

Langkah selanjutnya adalah meng-import vg “datavg”, kemudian jalankan kembali “lspv”

root@nexus:/> importvg -y datavg hdisk6
root@nexus:/> lspv
...
hdisk6          00e4518dadfa5c20                    datavg          active
hdisk7          00e4518dadfaa546                    datavg          active
hdisk8          00e4518dadfaef1c                    datavg          active
hdisk9          00e4518dadfafedc                    datavg          active

Otomatis semua yang ada di datavg menjadi active, tidak perlu import satu persatu, setelah itu langkah selanjutnya adalah tinggal mount semua “lv” sesuai dengan mountpoint sebelumnya.

root@nexus:/> lsvg -l datavg | awk '{print $7}' |grep -v LV|grep -v "N/A" |xargs -l mount

Periksa dengan “df -g” apakah semua mountpoint nya sudah termount dengan benar.

Selesai deg-deg an nya, makan-makan 🙂

Keterangan :
lv = logical volume
pv = physical volume
vg = volume group

Cara sakti deteksi disk baru (dari FC-Storage) di Solaris

Judul yang sangat provokatif, tapi mudah-mudahan bermanfaat

# devfsadm -cv

Periksa apakah disk barunya sudah muncul?

# echo | format
Searching for disks...done

AVAILABLE DISK SELECTIONS:
0. c0t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
/pci@0,600000/pci@0/pci@8/pci@0/scsi@1/sd@0,0
1. c0t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
/pci@0,600000/pci@0/pci@8/pci@0/scsi@1/sd@1,0
2. c1t60060E8006D6D3000000D6D300000C00d0 <SUN-LCSM100_F-0670 cyl 34814 alt 2 hd 128 sec 64>
/scsi_vhci/ssd@g60060e8006d6d3000000d6d300000c00
3. c1t60060E8006D6D3000000D6D300000C01d0 <SUN-LCSM100_F-0670 cyl 34677 alt 2 hd 128 sec 64>
/scsi_vhci/ssd@g60060e8006d6d3000000d6d300000c01

Ternyata belum, kita lakukan cara sakti berikutnya :

Periksa port FC yang terkoneksi

# luxadm -e port
/devices/pci@3,700000/SUNW,qlc@0/fp@0,0:devctl                     CONNECTED
/devices/pci@3,700000/SUNW,qlc@0,1/fp@0,0:devctl                   CONNECTED

Lakukan forcelip

# luxadm -e forcelip /devices/pci@3,700000/SUNW,qlc@0/fp@0,0:devctl
# luxadm -e forcelip /devices/pci@3,700000/SUNW,qlc@0,1/fp@0,0:devctl
# echo | format
Searching for disks…done

AVAILABLE DISK SELECTIONS:
0. c0t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
    /pci@0,600000/pci@0/pci@8/pci@0/scsi@1/sd@0,0
1. c0t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
    /pci@0,600000/pci@0/pci@8/pci@0/scsi@1/sd@1,0
2. c1t60060E8006D6D3000000D6D300000C00d0 <SUN-LCSM100_F-0670 cyl 34814 alt 2 hd 128 sec 64>
    /scsi_vhci/ssd@g60060e8006d6d3000000d6d300000c00
3. c1t60060E8006D6D3000000D6D300000C01d0 <SUN-LCSM100_F-0670 cyl 34677 alt 2 hd 128 sec 64>
    /scsi_vhci/ssd@g60060e8006d6d3000000d6d300000c01
4. c1t60060E8006D6D3000000D6D300000C02d0 <HITACHI-OPEN-V-SUN-7003 cyl 65533 alt 2 hd 15 sec 1066>
    /scsi_vhci/ssd@g60060e8006d6d3000000d6d300000c02

Dah muncul tuh 🙂

Disable password aging for a User – Redhat

Open console, login with root user, and do this…

# chage -I -1 -m 0 -M 99999 -E -1 namauser

The command set the “Password inactive” to never, set the minimum number of days between password change to 0, set the maximum number of days between password change to 99999, and set “Account expires” to never.

“man chage” for the best assist…

Link : 32.2.4. Password Aging

Install TSM Client di Solaris

1. Download TSM Client for solaris

2. Install

# tar -xvf 5.4.3.0-TIV-TSMBAC-SolarisSparc.tar
# pkgadd -a ./tsmadmin -d ./TIVsmCapi.pkg TIVsmCapi

3. Konfigurasi

# cd opt/tivoli/tsm/client/ba/bin/

Sunting file dsm.opt dan dsm.sys, setelah selesai… setting agar TSM Client otomatis running saat server restart

# vi /autotsmsched
cd /opt/tivoli/tsm/client/ba/bin
nohup dsmc sched 2> /dev/null &
dsmcad

Tambahkan baris berikut di /etc/inittab

autotsmsched:2:once:/autotsmsched

4. Selesai