| [unmarkierte Version] | [unmarkierte Version] |
→Entropie: Informationtheorie Shannon-Entropie |
|||
| Zeile 125: | Zeile 125: | ||
* {{Wikipedia|Entropie (Thermodynamik)}} | * {{Wikipedia|Entropie (Thermodynamik)}} | ||
In der Informationstheorie wird der Begriff der Entropie als ein Maß für die <b>gleichmässige Verteilung</b> von Zeichen in einer Übertragung verwendet. Je höher die Shannon-Entropie umso wahrscheinlicher ist es, das alle Zeichen die in einer Nachricht enthalten sein können, gleichmässig in der aktuell geprüften Nachricht enthalten sind. | |||
Wissenswert an dieser Stelle ist die Idee, die Entropie als eine Maß für die Gleichverteilung anzusehen. | |||
* {{Wikipedia|Entropie_(Informationstheorie)}} | |||
==Medien== | ==Medien== | ||