Informatsiooniteooria: erinevus redaktsioonide vahel

Eemaldatud sisu Lisatud sisu
P teised keeled
Priitp (arutelu | kaastöö)
Resümee puudub
5. rida:
Kaasaegse informatsiooniteooria leiutas [[Claude Shannon]] oma [[1948]] aastal avaldatud artiklis [http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html ''A Mathematical Theory of Communications''].
 
Tema järgi on informatsiooniks ainult need sõnumid, milles vastuvõtja ei ole kindel. Teates leiduva info hulk võrdne nende [[bitt|bittide]] minimaalse hulgaga, mida läheb vaja teate kõikvõimalike väärtuste kodeerimiseks. Seda eeldades, et kõik teated on võrdse tõenäosusega. Näiteks andmebaasis läheb nädalapäevade tähistamiseks vaja kolme bitti:
{{Pooleli}}
 
:000 = esmaspäev
 
:001 = teisipäev
 
:010 = kolmapäev
 
:011 = neljapäev
 
:100 = reede
 
:110 = laupäev
 
:101 = pühapäev
 
:111 = seda ei kasutata
 
Kui seda kõike esitada tavaliste tähejadade abil, siis läheb nende säilitamiseks rohkem ruumi, kuid rohkem infot need ei sisaldaks.
 
Formaalselt mõõdetakse teates <math>\mbox{M}</math> sisalduva info hulka selle entroopiaga <math>\mbox{H(M)}</math>. Üldjuhul sõnumi entroopia (bittides)
 
:<math>\mbox{H(M)} = log_2n</math>,
 
kus n on sõnumi võimalike väärtuste arv. Seejuures eeldatakse kõikide väärtuste puhul nende esinemise võrdset tõenäosust.
 
== Välislingid ==
 
*David MacKay [http://www.inference.phy.cam.ac.uk/mackay/itila/book.html Information Theory, Inference and Learning Algorithms].
 
{{Täienda}}
 
[[de:Informationstheorie]]