Konsep Dasar Entropy dan Redundancy (Shannon)
Konsep Dasar Entropy dan Redundancy (Shannon)
Entropy dan redundancy merupakan
konsep dasar yang dikemumakan pada teori informasi
Entropy adalah konsep keacakan, di mana terdapat suatu keadaan yang tidak
dapat dipastikan kemungkinannya. Entropy
timbul jika prediktabilitas/kemungkinan rendah (low predictable) dan informasi yang ada tinggi (high information). Sebagai contoh ada
pada penderita penyakit AIDS. Pengidap AIDS atau yang lebih sering disebut
OHIDA tidak dapat dipastikan usianya atau kapan ia akan dijemput maut.
Informasi adalah sebuah ukuran ketidakpastian, atau entropy, dalam sebuah situasi. Semakin besar ketidakpastian, semakin besar informasi yang tersedia dalam proses komunikasi. Ketika sebuah situasi atau keadaan secara lengkap dapat dipastikan kemungkinannya atau dapat diprediksikan (highly predictable), maka informasi tidak ada sama sekali. Kondisi inilah yang disebut dengan negentropy.
Konsep kedua adalah redundancy, yang merupakan kebalikan dari entropy. dudansi adalah sesuatu yang bisa diramalkan atau diprediksikan (predictable). Karena prediktabilitasnya tinggi (high predictable), maka informasi pun rendah (low information). Redundansi apabila dikaitkan dengan masalah teknis, ia dapat membantu untuk mengatasi masalah komunikasi praktis. Masalah ini berhubungan dengan akurasi dan kesalahan, dengan saluran dan gangguan, dengan sifat pesan, atau dengan khalayak. Kekurangan-kekurangan dari saluran (channel) yang mengalami gangguan (noisy channel) juga dapat diatasi oleh bantuan redundancy. Misalnya ketika kita berkomunikasi melalui pesawat telepon dan mengalami gangguan, mungkin sinyal yang lemah, maka kita akan mengeja huruf dengan ejaan yang telah banyak diketahui umum, seperti charlie untuk C, alpa untuk huruf A, dan seterusnya.
Dengan memandang informasi sebagai entropy,
(actual entropy / max entropy) = redudancy
Dengan mendefinisikan informasi sebagai entropy, terbentuklah 2 buah teorema fundamental
dari
Bunyi dari teorema pertama adalah sebagai berikut.
Terdapat sebuah sumber informasi yang memiliki entropy
H (bits per symbol) dan sebuah channel
dengan kapasitas C (bits per transmit) dengan laju rata-rata C/H – e
symbol per second dimana e sangat kecil. Tidak mungkin untuk dapat melakukan
transmisi dengan laju rata-rata lebih dari C/H.
Ide utama dibalik teorema ini adalah bahwa jumlah informasi yang mungkin untuk ditransmisikan berdasar pada besarnya entropy atau derajat keacakkan. Oleh karena itu, berdasarkan sifat-sifat statistik dari sumber informasi, ini memungkinkan untuk dilakukannya pengkodean informasi sehingga memungkinkannya untuk melakukan pentransmisian informasi pada laju maksimum yang diperbolehkan channel. Ini merupakan ide revolusioner bagi para insinyur komunikasi sebelumnya yang berpikir bahwa jumlah sinyal maksimum yang dapat ditransport dalam suatu mediam bergantung pada berbagai faktor, seperti frequensi, dan sebagainya.
Sedangkan, bunyi dari teorema kedua adalah sebagai berikut.
Diketahui sebuah channel yang memiliki kapasitas C dan
sebuah sumber entropy discrete per second H.
Jika H<=C maka akan ada suatu sistem koding dimana output dari
sumbernya dapat ditransmisikan melalui channel dengan tingkat kegagalan yang
sangat rendah. Jika H-C > C maka akan ada kemungkinan untuk meng-encode
pesan sehingga pesan yang ambigu bernilai kurang dari H-C + e dimana e sangat
kecil. Tidak ada metode yang mengenkode pesan dimana tingkat ke-ambiguitasnya
kurang dari H-C.
Post a Comment