Pengertian Lossy Compression Pada Kompresi Data Multimedia

     Kompresi data merupakan penerapan teori informasi yang termasuk dalam cabang ilmu matematika. Teori ini muncul pada akhir 1940 dan dikembangkan pertama kali oleh Claude Shannon di Laboratorium Bell. Dorongan perkembangan ilmu ini berdasarkan atas beberapa pertanyaan tentang "Apa itu informasi?" (termasuk bagaimana cara penyimpanan dan pengiriman pesan / informasi).  Dalam teori informasi digunakan istilah entropy diambil dari istilah termodinamika. Makna dari entropy sebetulnya menunjukan ketidak teraturan sesuatu (dalam hal ini informasi).

       Entropy dari sebuah simbol didefinisikan sebagai nilai logaritma negatif dari probabilitas kemunculannya. Untuk menentukan konten informasi dari sebuah pesan dalam jumlah bit dapat digunakan rumus sebagai berikut:
number of bits = -log base 2 (probability)

Entropy dari keseluruhan pesan adalah jumlah dari keseluruhan entropy dari seluruh symbol.


Sedangkan entropy keseluruhan informasi merupakan jumlah entropy dari masing-masing simbol. Sebagai gambaran, misalkan dalam sebuah tulisan, probabilitas huruf "e" adalah 1/16. Maka jumlah bit untuk kode huruf tersebut adalah 4 bit. Sedangkan kalau menggunakan kode ASCII jumlah bit yang digunakan adalah 8bit. Perhitungan entropy untuk kompresi data berbeda dengan perhitungan entropy untuk termodinamika. Untuk kompresi data, kita menggunakan bilangan yang tidak absolut, artinya tergantung dari cara memandang dalam memperoleh nilai probabilitas sebuah simbol. Untuk orde 0 kita mengabaikan simbol-simbol yang telah muncul sebelummnya. Atau dengan kata lain setiap simbol yang akan muncul mempunyai nilai probabilitas yang sama. Model ini disebut dengan zero-memory source (tanpa sumber memori), yang menghasilkan S buah simbol dapat dihitung dengan :

H S P Si P SiS () () log() = Sigma 2 1.

Dimana P(Si) adalah probabilitas setiap simbol.
Pengertian Lossy Compression Pada Kompresi Data Multimedia Rating: 4.5 Diposkan Oleh: budis

No comments:

Berlangganan Via Email