Informatsiooniteooria: erinevus redaktsioonide vahel
Eemaldatud sisu Lisatud sisu
P Bot: Migrating 50 interwiki links, now provided by Wikidata on d:q131222 (translate me) |
Resümee puudub |
||
1. rida:
{{ToimetaAeg|kuu=november|aasta=2015}}
'''Informatsiooniteooria''' on [[matemaatika]] haru, mis tegeleb
Tema järgi on informatsiooniks ainult need sõnumid, mille esinemist ei saa vastuvõtja ette ennustada. Teates leiduva info hulk võrdne nende [[bitt|bittide]] minimaalse hulgaga, mida läheb vaja teate kõikvõimalike väärtuste kodeerimiseks. Seda eeldades, et kõik teated on võrdse tõenäosusega. Näiteks andmebaasis läheb nädalapäevade tähistamiseks vaja kolme bitti:▼
▲Kaasaegsele informatsiooniteooriale pani aluse[[Claude Shannon]] oma [[1948]] aastal avaldatud artiklis "[[A Mathematical Theory of Communications]]". Tema järgi on informatsiooniks ainult need sõnumid, mille esinemist ei saa vastuvõtja ette ennustada. Teates leiduva info hulk
:000 = esmaspäev
:001 = teisipäev
:010 = kolmapäev
:011 = neljapäev
:100 = reede
:101 = laupäev
:110 = pühapäev
:111 = seda ei kasutata
Kui seda kõike esitada tavaliste tähejadade abil, siis
Formaalselt mõõdetakse teates <math>\mbox{M}</math> sisalduva info hulka selle [[entroopia]]ga <math>\mbox{H(M)}</math>. Üldjuhul sõnumi entroopia (bittides)
|