Claude E. Shannon        zurück ]      [ Stichworte ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]         [ Meine Bücher ]
 

Literatur

  • Mathematische Grundlagen der Informationstheorie
  • Relay and Switching Circuit
  • Der vierdimensionale Dreh
  • bild

    Literatur über C. Shannon

  • R. Todesco: Mensch und Technik im Fahrzeug
  • F. Kittler: Ein/ Aus.
  • P. Berz u.a: Eine Maschine, die Labyrinthe löst
  • R. Maresch: Kommunikation.htm
  • siehe auch Crashkurs Kommunikation

    Zur Person

    bild
    Bildquelle: Wikipedia
    bild

    C. Shannon begründete die Informationstheorie durch seine "mathematische Theorie der Kommunikation", in welcher er die Hartley-Entropie-Formel auf den technologischen Informationsprozess anwendete.

    Laut F. Kittler .. " die folgenreichste Magisterarbeit aller Zeiten", in der Shannon den Beweis erbrachte, dass Booles Laws of Thought in elektrische Schaltsignale gegossen werden kann, sowie den lange Jahre vom Pentagon unter Verschluss gehaltenen nicht-öffentlichen Teil der Kommunikationstheorie, den Abschnitt über "Secrecy Systems" (Chiffriersysteme), aus deren Geist die allgemeine "mathematische Theorie der Kommunikation" einst überhaupt erst hervorgegangen ist.

    C. Shannon konstruierte ein paar lustige Maschinen

    zitiert in

    Schaltung, Schaltalgebra, bit

    Zitate

    Information hat keine Bedeutung. ("the semantic aspects of communication are irrelevant to the engineering aspects". (S.1)).

    Anmerkungen

    Als C.Shannon 1948 seine Informationstheorie veröffentlichte, hat sein Co-Autor W. Weaver diese Problematik vollständig ausgedrückt. Er schrieb, dass nicht nur sein Telefonapparat ein Transmitter von Signalen sei, sondern auch sein Sprechapparat: "Im mündlichen Gespräch ist das Gehirn die Informationsquelle, der Stimm-Mechanismus, der die Schallwellen, die durch die Luft (Kanal) übermittelt werden, produziert, ist der Transmitter. (...) Wenn ich mit Ihnen spreche, ist mein Hirn die Informationsquelle, mein vokales System der Transmitter" (Shannon/Weaver:98f).

    W. Weaver schreibt: ”Das Wort ,Information‘ wird, in unserer Theorie, in einem spezifischen Sinn verwendet, der nicht mit der üblichen Verwendung des Wortes verwechselt werden darf. (...) Zwei Nachrichten, von welchen die eine wirklich bedeutungsvoll und die andere purer nonsense ist, können, was ihren Informationsgehalt betrifft, unter dem verwendeten Gesichtspunkt, exakt äquivalent sein. Es ist zweifellos diese Tatsache, die Shannon meint, wenn er sagt, dass ,der semantische Aspekt der Kommunikation für den technischen Aspekt irrelevant ist‘” (Shannon:99).

    C.Shannon schreibt in seinem epochemachenden Aufsatz: ”In diesem Aufsatz werden wir die Theorie erweitern, um eine Anzahl neuer Faktoren einzuschliessen, insbesondere die Wirkung von Störungen im Kanal und die Einsparungen, die sowohl durch die statistische Struktur der Originalnachricht als auch durch die Art des Endzieles der Information möglich sind” (Shannon/Weaver: 41). In der Theorie von C.Shannon geht es, allgemeinverständlich gesagt, darum, wie viele Gespräche gleichzeitig auf einer Telefonleitung übermittelt werden können, was C. Shannon ”Kanalkapazität” nannte. (Todesco: Technische Intelligenz:213)

    Die Formel von C.Shannon für den Informationsgehalt der einzelnen Variablen einer Struktur entspricht der Entropie-Formel: Inf(N)= -logdualP(N). Sie gibt die Zahl der optimalen Ja-Nein-Fragen an, die man stellen muss, um den Wert der Variablen zu identifizieren. Sie ist quasi ein Mass für die Un-Ordnung, da bei Unordnung mehr Fragen nötig sind.

    Der ”Kanal” wird häufig sehr nachlässig behandelt. C. Shannon sagt: ”Der Kanal ist nur ein Mittel (...) Es können ein paar Drähte sein, (...) ein Lichtstrahl usw.” (Shannon/Weaver:44). W. Weaver sagt (über den Schalldruck), ”der durch die Luft (den Kanal) übertragen wird”: ”In der Funktechnik ist der Kanal einfach der Raum (oder der äther, wenn jemand dieses veraltete und irreführende Wort noch bevorzugt), und das Signal ist die elektromagnetische Welle, die übertragen wird” (Shannon/Weaver:16f). Der Linguist U. Weidmann bezeichnet sogar ”die Luft, das Tonband” und den ”Schall” als Kanal (Weidmann,1979,10).

    Damit auch die Telefonverbindung als Ganzes als Sender/Empfänger-Modell aufgefasst werden kann, hat C. Shannon die Kommunikationskette um die beiden Instanzen "Quelle" und "Senke" verlängert.

    Auch hier gilt, dass keiner der Begründer war. Die FormelH =log2N, mit welcher die nötige Anzahl Fragen H berechnet wird, um ein Element aus einer homogenen Menge mit NElementen zu bestimmen, heisst nach A.Rényi ”Hartley-Formel”, weil sie Hartley im Jahre1928 als erster veröffentlichte (Rényi,1982, 23), worauf auch W. Weaver verweist (Shannon/Weaver:95).

    Die Informationstheorie ist vor allem mit den Namen C. Shannon und W. Weaver verknüpft. R. Hartley, auf dessen Schrift C.Shannon unter anderem aufbaut, nannte seine Arbeit bereits 1928 "übertragung von Information".


     
    [Arbeitsspeicher]
    [Nachruf]
    [Zum Spiel mit der Mind-Reading(?) Machine ]
    [Mind-Reading(?) Machine]
    [http://www.heise.de/tp/artikel/31/31616/1.html]
    [wp]