(Andrea Zimmer)
Die Informationstheorie behandelt Probleme der Entstehung, Speicherung, Umwandlung und Übermittlung von Information.
1. Information
1.1 Information und Struktur
Elemente können durch Verknüpfungsoperationen in eine Struktur gebracht werden.
z.B. Menge M = {E;D;L;I}
EDLI
LEID
LIED
Man kann erkennen, dass Elemente mehrere Strukturen annehmen können. Genauso ist es möglich, gleiche Strukturen auf verschiedene Elemente anzuwenden.
Diese Strukturen sind Träger bestimmter Information.
Durch Diffusion geht spezifische Struktur(Information) verloren.
Homogenität (Gleichverteilung) ist der wahrscheinlichste Zustand der Materie.
Die Entropie ist
als Maß der Gleichverteilung definiert.
Also wurde die Informationsmenge I als
negative Entropie definiert.
1.2 Quantitative Bestimmung der Informationsmenge
Da der einzige quantitativ fassbare Begriff die Wahrscheinlichkeit ist, definiert als:
mit ni/N als relative Häufigkeit
ist es sinnvoll, die Informationsmenge I als eine Funktion von p zu definieren.
(ld ist der Logarithmus zur Basis 2)
wobei bit die Einheit der Informationsmenge im dualen System ist.
Bei einem quantitativen Vergleich von Informationen spielt der Begriff Redundanz eine wichtige Rolle.
Abb.
34: Die Information der 36 weißen Nachbarfelder dient als Redundanz
(R=36 bit) zur Kontrastierung und damit zur semantischen Sicherung der
Bedeutung „F“
Unter Redundanz versteht man die Differenz zwischen einer gebebenen Informationsmenge und derjenigen, die als Träger einer bestimmten Semantik mindestens erforderlich ist.
1.3 Shannonrische Formel
Beim quantitativen Vergleich von Nachrichtensystemen, treten
aber in der Regel Zeichen mit unterschiedlichen Wahrscheinlichkeiten auf.
Deshalb ist die Ermittlung des mittleren Informationsgehalts pro Zeichen nötig:
mit
Ii: Informationsgehalt des Zeichen
ni: absolute Häufigkeit
Dann gilt für den mittleren Informationsgehalt Im
aus und
2.
Informationsübertragung
2.1
Die tragende Idee der Information ist, dass die Nachricht der Quelle aus Wörter besteht, die ihrerseits aus Buchstaben des Quellenalphabets X:={a; b ;c;.........z} bestehen. Diese können dann in die Wörter des Codealphabet Y:={0;1} übersetzt werden. Damit ist Telekommunikation äquivalent dem Erzeugen , Senden und Empfangen von Bits ist. So kann also die Informationsübertragung in zwei Probleme aufgeteilt werden:
- Representation der Ausgangssignale der Quelle durch binäre Symbole (Quellenkodierung)
- Übertragen von binären Zufallsfolgen über den Kanal (Kanalkodierung)
Quellencodierungs-Theorem
Jede Quelle kann mit R bit pro Zeiteinheit dargestellt werden. Sie ist äquivalent einer anderen Quelle, die R zufällig erzeugt und gleichwahrscheinliche Bits/Zeiteinheit aussendet.
Kanalcodierungs-Theorem
Der Kanal ist über seine Kapazität C so bestimmt, dass R zufällig gewählte Bits/Zeiteinheit übertragen werden können.
Shannon: Die Informationscodierung ist wichtiger als das Signalstörverhältnis.
Unter Informationscodierung versteht man lange Informationssequenzen, damit jedes Informationsbit Einfluss auf die anderen mitgesendeten Bits hat.
2.2 Mehrbenutzerkommunikation
2.3. Kryptologie
Kryptologie dient dem Schutz der Information bei der Übertragung.
Zur Geheimhaltung und Authentizitätssicherung werden Chiffriersysteme benutzt.
3. Sonstige
Anwendungen:
Biologie: Artenbestimmung
Informationsmengen von DNS und Polypeptitketten
Steuerungssysteme: Maschinenbau und Robotertechnik
Psychologie: Informationsverarbeitung im Gehirn
Lernforschung
Quellenverzeichnis:
Kybernetik und Biologie – Gerhard
Schäfer
Informationstheorie – Rolf Johannesson
Einrührung in die Informationstheorie
– Klaus-Dieter Hofmann