Bit (Informationstheorie)

Bit (Informationstheorie)
Redundanz Die Artikel Informationstheorie, Shannon-Index und Shannon (Einheit) überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen Baustein erst nach vollständiger Abarbeitung der Redundanz. Engelbaet 13:31, 14. Mai 2008 (CEST)

Shannon (Sh) ist die nach dem amerikanischen Mathematiker und Begründer der Informationstheorie Claude Elwood Shannon benannte Hinweis-Einheit für den Informationsgehalt einer Nachricht.

Definition

Ein Shannon ist die theoretische minimale Anzahl an Bit, mit der eine Information abgebildet werden kann. Dabei ist der Informationsgehalt eines Signals abhängig von der Wahrscheinlichkeit, mit der das Signal an dieser Stelle auftritt – und damit umgekehrt proportional zur Entropie der Zeichenfolge.

Es geht hierbei nicht darum, wie viele reale Bits (bei einer gegebenen Kodierung) notwendig sind, um die Nachricht zu übertragen oder zu speichern, weshalb der Informationsgehalt eine reelle Zahl sein kann. Ein Aufrunden zur nächsten ganzen Zahl ist also nicht notwendig, sondern nimmt im Gegenteil der Angabe des Informationsgehaltes sogar Aussagekraft (und somit Informationsgehalt).

Diese Einheit wurde geschaffen, um die vorher verwendete Informationseinheit bit zu ersetzen, weil deren Benutzung Anlass für Verwechslungen mit dem Begriff Bit gibt. Das traditionell benutzte bit soll hierbei per Konvention klein geschrieben werden, um eine Unterscheidung zu Bit zu ermöglichen, was jedoch in der Praxis häufig nicht beachtet wird.

Beispiel

Wird in einer Nachricht nur eine Dezimalstelle übertragen, wobei das Auftreten jeder der zehn Ziffern gleich wahrscheinlich sei, so werden theoretisch -\log_2 \left(\frac{1}{10} \right) \approx 3{,}322\ \mathrm{Sh} benötigt, um die Information einer Dezimalziffer darzustellen. Der Informationsgehalt dieser Nachricht beträgt also 3,322 Shannon. Die Datenmenge hingegen, die benötigt wird um diesen Informationsgehalt darzustellen, beträgt mindestens 4 Bit (3,322 aufgerundet). Die Darstellung mit den minimalen 4 Bit gelingt zum Beispiel durch Verwendung eines BCD-Codes.

Normung

Normen zu Einheiten des Entscheidungsgehalts in der Informationstheorie findet man in IEC 60027-3 oder ISO 2382-16. Dort ist neben der auf dem Logarithmus zur Basis 2 beruhenden Einheit Shannon (Einheitenzeichen: Sh) noch das auf dem Zehner-Logarithmus beruhende Hartley (Einheitenzeichen: Hart) und die auf dem natürlichen Logarithmus beruhende natürliche Informationseinheit (Einheitenzeichen: nat) erklärt.


Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Informationstheorie — In|for|ma|ti|ons|the|o|rie 〈f. 19; unz.〉 Lehre über die quantitativen Zusammenhänge bei Übertragung, Speicherung u. Empfang von Informationen * * * I Informationstheorie,   von dem amerikanischen Mathematiker C. E. Shannon 1948 begründete… …   Universal-Lexikon

  • Informationstheorie — Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf Claude Shannon zurückgeht. Sie beschäftigt sich mit Begriffen wie Information, Entropie, Informationsübertragung,… …   Deutsch Wikipedia

  • BIT — Der Ausdruck Bit bezeichnet die kleinste Einheit der Information; siehe Bit. veraltet für die Einheit des Informationsgehaltes in der Informationstheorie; siehe Shannon (Einheit). ein Kurzwort für Bier der Bitburger Brauerei. einen… …   Deutsch Wikipedia

  • Bit/s — Die Datenübertragungsrate (auch Datentransferrate, Datenrate oder umgangssprachlich Verbindungsgeschwindigkeit, Übertragungsgeschwindigkeit, und nicht ganz zutreffend auch „Kapazität“, „Bandbreite“ genannt) bezeichnet die digitale Datenmenge, die …   Deutsch Wikipedia

  • Bit Rate — Die Datenübertragungsrate (auch Datentransferrate, Datenrate oder umgangssprachlich Verbindungsgeschwindigkeit, Übertragungsgeschwindigkeit, und nicht ganz zutreffend auch „Kapazität“, „Bandbreite“ genannt) bezeichnet die digitale Datenmenge, die …   Deutsch Wikipedia

  • Bit pro Sekunde — Die Datenübertragungsrate (auch Datentransferrate, Datenrate oder umgangssprachlich Verbindungsgeschwindigkeit, Übertragungsgeschwindigkeit, und nicht ganz zutreffend auch „Kapazität“, „Bandbreite“ genannt) bezeichnet die digitale Datenmenge, die …   Deutsch Wikipedia

  • Entropie (Informationstheorie) — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Das… …   Deutsch Wikipedia

  • Information — Schalter; Auskunftsschalter; Auskunft; Info (umgangssprachlich); Nachrichtengehalt; Mitteilung; Nachrichteninhalt; Daten; Datenansammlung; Fakten; …   Universal-Lexikon

  • Überraschungswert — Der Begriff der Information, wie er in der Informationstheorie nach Shannon[1] verwendet wird, ist streng von dem gewöhnlichen Gebrauch dieses Begriffes zu unterscheiden. Insbesondere darf darin die Information nicht mit dem Begriff der Bedeutung …   Deutsch Wikipedia

  • Informationsdichte — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”