Information        zurück ]      [ Stichworte ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]         [ Meine Bücher ]
 
bild

Duden schreibt in seinem Informatiklexikon, Information stelle neben Energie und Materie einen der "drei wichtigsten Grundbegriffe der Natur- und Ingenieurwissenschaften dar. Für die Informatik als der Wissenschaft von der systematischen Verarbeitung von Informationen sollte der Begriff von zentraler Bedeutung sein; dennoch ist er bisher kaum präzisiert worden" (Duden Informatik 1988:273). Duden übersieht mit seiner Forderung, dass die Informatik ihre Sache offensichtlich auch ohne explizite Formulierung des Begriffes Information bestens im (Be)Griff hat.

Information hat eine umgangsprachliche und eine technologische Bedeutung

Wortgeschichte(n)


Der Ausdruck Information verweist auf den blinden Fleck im Paradigma jener Kommunikationswissenschaften, die "bedeutungsübertragende" Mitteilungen oder Nachrichten anhand eines Kommunikations-Mittel-Modelles beschreiben. Information steht dort für etwas, was mitgeteilt wird und für den Empfänger neu ist oder wenigstens ungewiss war (siehe dazu auch : Informationsmetapher)

bild

Informationsgehalt
Informationstheorie

Information nach:
G. Bateson
C. Shannon
R. Hartley
N. Luhman

bild

Informationsgehalt, Informationstheorie, Information (nach Bateson)

Differenztheoretisch begreife ich Information als Differenz zwischen Information und Energie, das heisst, wenn ich von Information spreche, unterscheide ich Information von (nicht-informierender) Energie, was ich duch die kybernetische Bestimmung einen Unterschied, der einen Unterschied macht, ausdrücke.

Als Energie ist Information ein Signal, also struktuierte Energie, das interpretiert wird. Technologisch ist Information sekundären Energie, die der Steuerung dient (Todesco 1992). Geregelte Artefakte, vorab Computer sind festgelegte Interpretationen, die "Information" konstituieren.

Die Interpretation wird in systemtheoretischen Kommunikationstheorien als strukturdeterminiert gesehen. "Information" hat deshalb keine Bedeutung. C. Shannon, der diesen Informationsbegriff entwickelt hat, spricht vom Informationsgehalt, womit aber keine Bedeutung gemeint ist, sondern ein Mass dafür, wie viele andere Möglichkeiten der Sender gehabt hätte (vgl dazu den Crashkurs Kommunikationstheorie).

Anmerkung:
Wenn der Interpreter komplex (etwa ein Mensch oder ein Hund) ist, ist nicht vorhersehbar, wie er ein bestimmtes Signal interpretiert.

Arbeits-Programm

Information innerhalb der Kybernologie


 

Literatur:
Rolf Todesco: Wie G. Bateson Hunde informiert

Für ein technisches Sachbuch eher peinlich antwortet das von H.Schneider herausgegebene Informatik-Lexikon: "Information ist Macht". Als Erläuterung steht dort: "Information ist, informationswissenschaftlich betrachtet, ein ideelles Handlungsmodell. Jedes Modell bildet ,etwas‘ (ein Objekt) für Zwecke von jemandem (dem ,Herrn‘ des Modells) ab; z.B. für Zwecke des Kontrollierens" (Schneider 1983:263) (Todesco 1992:134).

N. Luhmann
Soz. Syst: S.68 unspezifischer Bezug auf G. Bateson Ökologie des Geistes, Selektion
Soz. Syst: S.80 ein System ist gezwungen "seiner Umwelt Informationen zu entnehmen !! Es reagiert auf Reize !! die Umweltinformationen sind.
Soz. Syst: S.102. Information hat Sinn und Informationswert. Wenn ich in zwei Zeitungen dasselbe lese, ist es zweimal derselbe Sinn, hat aber das zweite Mal keinen Wert mehr (das ist das wiederholte Kreuzen bei GSB)
Soz. Syst: S.103 Information ist ein Ausseneinwirkung, die im System eine Verarbeitung auslöst, sonst wäre die Wirkung aêin direkte Aussenwirkung auf das System (das ist alles unverstandener Bateson)
Soz. Syst: S.193 Übertragungsmetapher Sender Empfänger Nachrichtenübertragung - das alles soll vermieden werden In Soz.Syst. S.195 (die einzige mir bekannte Textstelle) sagt N. Luhmann sehr deutlich, dass er C. Shannon nicht brauchen kann, weil dort kein Sinn vorkomme. Das heisst umgekehrt sehr deutlich, dass er nur Sinn behandelt und den materiellen Kommunikationsprozess ausser Acht lässt. Ich vermute, dass N. Luhmann sich gar nie mit C. Shannon befasst hat, sondern nur Commonsense aufgreift, den er C. Shannon zuschreibt. Bei C. Shannon ist der Empfänger ein Mechanismus, der keine Sinnfragen kennt oder verstehen will.
"Man kommuniziert über etwas und man kommuniziert nur ausnahmsweise über Kommuniktion" Luhmann: Soz. Systeme, 557.

N. Wiener "if all i can do is to create, at the receiving end of a communication system, an enduring state competely characerisized in terms of its own past, then I cease to convey information" (wenn alles, was ich tun kann, darin besteht, auf der Empfängerseite eines Kommunikationssystems einen dauerhaften Zustand zu schaffen, der in Bezug auf seine eigene Vergangenheit vollständig charakterisiert ist, dann höre ich auf, Informationen zu vermitteln. (Soz.Syst. S.195 zit Wiener: Time, communication and the nervous System, 1947,S. 2020)

V. Flusser hat eine lustige Variante des 2-gleisigen Paradigmas: Materiell sieht er "Entropie", ideell sieht er "Negative Entropie". Er sagt, dass wir Ordnung in die Welt bringen, um zu verdängen, dass alles sinnlos entropisch sei.
Die Entropie sieht er so: Wenn man mit einer Kreide an die Wandtafel schreibt, geht Materie von der Kreide weg, die Kreide de-formiert sich, die Materie geht an die Wandtafel, die Wandtafel informiert sich (251).
Dazu sagt Flusser, der materielle Prozess der Kreide erfülle das Gesetz der Entropie (Abnahme der Ordnung). Nun ist natürlich die Frage, was hier mehr Ordnung ist. Ist die Kreide als Stück oder auf der Wandtafel verteilt die grössere Ordnung? [Dazu steht einiges in meinem Strukturkapitel]. Wenn man die Kreide betrachtet, kann man feststellen, dass sie sich auflöst. Ich würde aber im Beispiel nicht die Kreide betrachten, sondern die beiden Strukturen, die aus Kreide bestehen. Dann findet eine Entwicklung zum Unwahrscheinlicheren statt.

D. Baecker, Agiles Management: "Es muss unten maximale Energie bereit stehen, die von oben mit minimaler Energie (auch "Information" genannt) gesteuert werden kann (kybernetische Hierarchie; Parsons 1978: 375ff.; Baum/Lechner 1987).
Parsons, Talcott (1978): A Paradigm of the Human Condition, in: ders., Action Theory and the Human Condition, New York, S. 352–433 / Baum, Rainer C., und Frank J. Lechner, Zum Begriff der Hierarchie: Von Luhmann zu Parsons, in: Dirk Baecker et al. (Hrsg.), Theorie als Passion: Niklas Luhmann zum 60. Geburtstag, Frankfurt am Main, S. 298–332

Hassenstein: Was-ist-Information? [ ]
[Bartels]
[wp]