MY CALENDER ^_^

Minggu, 15 April 2012

ARTIKEL TENTANG KOMPRESI ALGORITMA




  1. Teknik Kompresi adalah teknik memadatkan data, sehingga data yang tadinya mempunyai kapasitas data yang besar menjadi kapasitas data yang lebih kecil
Kompresi data adalah proses mengkodekan informasi menggunakan bit atau information-bearing unit yang lain yang lebih rendah daripada representasi data yang tidak terkodekan dengan suatu sistem enkoding tertentu.

nContoh kompresi sederhana yang biasa kita lakukan misalnya adalah menyingkat kata-kata yang sering digunakan tapi sudah memiliki konvensi umumMisalnya: kata “yang” dikompres menjadi katayg”. 
Contoh sederhana : Menyingkat kata-kata yang
sudah memiliki pengertian umum. Misal : kata “dan
lain-lain” disingkat “dll”, “yang” disingkat “yg”, “dan
seterusnya” disingkat “dst”
nKompresi data menjadi sangat penting karena memperkecil kebutuhan penyimpanan data, mempercepat pengiriman data, memperkecil kebutuhan bandwidth.
jenis Kompresi yaitu :
- Dialoque Mode: yaitu proses penerimaan data dimana pengirim dan penerima seakan berdialog (real time), seperti pada contoh video conference.
• Dimana kompresi data harus berada dalam batas penglihatan dan pendengaran manusia. Waktu tunda (delay) tidak boleh lebih dari 150 ms, dimana 50 ms untuk proses kompresi dan dekompresi, 100 ms mentransmisikan data dalam jaringan.
- Retrieval Mode: yaitu proses penerimaan data tidak dilakukan secara real time 
• Dapat dilakukan fast forward dan fast rewind di client 
• Dapat dilakukan random access terhadap data dan dapat bersifat interaktif
- Lossy: 
> Beberapa struktur dokumennya akan mengalami error atau hilang dalam batasan toleransi manusia
Jangkauan kompresinya sangat tinggi. Contoh: video, gambar dan audio.
- Lossless:
> Ekplositasinya hanya pada data statistik (redudancy)
> Jangkauan kompresinya rendah
> Struktur dokumennya tidak mengalami error atau hilang apabila dilakukan dekompresi. contoh:program, data, medical imaging, dsb. 
- Lossy Compression  berdasarkan output
• Teknik kompresi dimana data hasil dekompresi tidak sama dengan data sebelum kompresi namun sudah “cukup” untuk digunakan. Contoh: Mp3, streaming media, JPEG, MPEG, dan WMA.
• Kelebihan: ukuran file lebih kecil dibanding lossless namun masih tetap memenuhi syarat untuk digunakan.
- Loseless
• Teknik kompresi dimana data hasil kompresi dapat didekompres lagi dan hasilnya tepat sama seperti data sebelum proses kompresi. Contoh aplikasi: ZIP, RAR, GZIP, 7-Zip
• Teknik ini digunakan jika dibutuhkan data setelah dikompresi harus dapat diekstrak/dekompres lagi tepat sama. Contoh pada data teks, data program/biner, beberapa image seperti GIF dan PNG
• Kadangkala ada data-data yang setelah dikompresi dengan teknik ini ukurannya menjadi lebih besar atau sama.
Run-Length-Encoding (RLE)
• Kompresi data teks dilakukan jika ada beberapa huruf yang sama yang ditampilkan berturut-turut:
• Mis: Data: ABCCCCCCCCDEFGGGG = 17 karakter
• RLE tipe 1 (min. 4 huruf sama) : ABC!8DEFG!4 = 11 karakter.
Beberapa elemen angka yang sama diwakilkan dengan satu buah elemen angka yang diberikan jumlahnya
• contoh: 111333322222211111  (1,3),(3,4),(2,6),(1,5) atau dengan contoh yang lain 10000001 dikompresi menjadi 10!61
> Best case: untuk RLE tipe 2 adalah ketika terdapat 127 karakter yang sama sehingga akan dikompres menjadi 2 byte saja.
> Worst case: untuk RLE tipe 2 adalah ketika terdapat 127 karakter yang berbeda semua, maka akan terdapat 1 byte tambahan sebagai tanda jumlah karakter yang tidak sama tersebut.
>Pattern Substitution
• Melakukan subtitusi kata-kata menjadi huruf maupun simbol
• contoh: This book is an exemplary example of a book…. 
This  1、is 2、an 3、of 4、a 5 book b*….
> Static Huffman Coding (SFC)
• Frekuensi karakter dari string yang akan dikompres dianalisa terlebih dahulu. Selanjutnya dibuat pohon huffman yang merupakan pohon biner dengan root awal yang diberi nilai 0 (sebelah kiri) atau 1 (sebelah kanan), sedangkan selanjutnya untuk dahan kiri selalu diberi nilai 1(kiri) - 0(kanan) dan di dahan kanan diberi nilai 0(kiri) – 1(kanan) 
• A bottom-up approach = frekuensi terkecil dikerjakan terlebih dahulu dan diletakkan ke dalam leaf (daun).
• Kemudian leaf-leaf akan dikombinasikan dan dijumlahkan probabilitasnya menjadi root diatasnya.
• Berdasarkan frekuensi kejadian pada karakter yang diberikan 
- A:13, B:4, C:7A1, B00, C01

A B C
11
24
24
A
11 13
4 7
B C
0
0
1
1

Mis: MAMA SAYA
• A = 4 -> 4/8 = 0.5
• M = 2 -> 2/8 = 0.25
• S = 1 -> 1/8 = 0.125
• Y = 1 -> 1/8 = 0.125
• Total = 8 karakter

p(YSM)=0.5 p(A)=0.5
p(YSMA)=1
0 1
p(Y)=0.125 p(S)=0.125
p(YS)=0.25 p(M)=0.25
1 0
1 0


Sehingga w(A) = 1, w(M) = 00, w(S) = 010, dan w(Y) = 011


> Shannon-Fano Algorithm
• Algoritma :
– Urutkan simbol berdasarkan frekuensi kemunculannya
– Bagi simbol menjadi 2 bagian secara rekursif, dengan jumlah yang kira-kira sama
pada kedua bagian, sampai tiap bagian hanya terdiri dari 1 simbol.
• Cara yang paling tepat untuk mengimplementasikan adalah dengan membuat binary tree.
> Adaptive Huffman Coding (AHC)
• Metode SHC mengharuskan diketahui terlebih dahulu frekuensi masing-masing karakter sebelum dilakukan proses pengkodean. Metode AHC merupakan pengembangan dari SHC dimana proses penghitungan frekuensi karakter dan pembuatan pohon Huffman dibuat secara dinamis pada saat membaca data. 
• Algoritma Huffman tepat bila dipergunakan pada informasi yang bersifat statis. Sedangkan untuk multimedia application, dimana data yang akan datang belum dapat dipastikan kedatangannya (audio dan video streaming), algoritma Adaptive Huffman dapat dipergunakan
• Metode SHC maupun AHC merupakan kompresi yang bersifat lossless.
• Dibuat oleh David A. Huffman dari MIT tahun 1952
• Huffman banyak dijadikan “back-end” pada algoritma lain, seperti Arithmetic Coding, aplikasi PKZIP, JPEG, dan MP3.
> Algoritma Lempel-Ziv-Welch (LZW) menggunakan teknik adaptif danberbasiskan “kamus” Pendahulu LZW adalah LZ77 dan LZ78 yang dikembangkan oleh Jacob Ziv dan Abraham Lempel pada tahun 1977 dan 1978. Terry Welch mengembangkan teknik tersebut pada tahun 1984. LZW banyak dipergunakan pada UNIX, GIF, V.42 untuk modem



> Kesimpulan
1. Metode SHC mengharuskan diketahui terlebih dahulu frekuensi masing-masing karakter sebelum dilakukan proses pengkodean. Metode AHC merupakan pengembangan dari SHC dimana proses penghitungan frekuensi karakter dan pembuatan pohon Huffman dibuat secara dinamis pada saat membaca data. 
2. Algoritma Huffman adalah salah satu algoritma yang merupakan prinsip algoritma Greedy dalam menyusun pohon Huffman.
3. Winrar adalah program kompresi terbaik yang berfungsi untuk mengubah ukuran file menjadi lebuh kecil.
> Referensi
1. ilmukomputer.com
2. www.muchad.com
3. www.scribd.com








1 komentar:

  1. Kami juga mempunyai artikel yang terkait dengan algoritma kompresi, bisa di download disini:
    http://repository.gunadarma.ac.id/bitstream/123456789/2242/1/01-03-002-Peningkatan%5BEdi_Sukirman%5D.pdf
    semoga bermanfaat :D

    BalasHapus