zurück ]      [ Stichworte ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]         [ Meine Bücher ]

Gell-Mann, Murray: Das Quark und der Jaguar, 1994, Piper, 528 S., Fr 48.-, ISBN 3-492-03201-X

Was Einstein für die erste Hälfte des zwanzigsten Jahrhunderts war, ist der Nobelpreisträger Murray Gell-Mann für die zweite: der genialste und geleichzeitig einflussreichste Physiker unserer Zeit. Der Erfinder des Quarks hat jetzt ein Buch für das allgemeine Publikum vorgelegt. Darin begründet er sein (...) Konzept der Komplexität" (Bücher Pick).

Anmerkungen

„Der Begriff »Kybernetik« wurde von Norbert Wiener, einem bedeutenden, aber etwas verschrobenen Mathematikprofessor am Massachusetts Institute of Technology, eingeführt, der schon als Kind seine geniale Begabung gezeigt hatte und niemals seine Lust an bizarren Verhaltensweisen verlor. Als ich am MIT studierte, fand ich ihn hin und wieder schlafend im Treppenhaus liegen, wo sein fülliger Körper den Verkehr ernsthaft behinderte. Einmal steckte er seinen Kopf in das Arbeitszimmer meines Doktorvaters, Viki Weisskopf, und äußerte einige Worte, die Viki völlig sinnlos erschienen. »Oh, ich dachte, alle europäischen Intellektuellen würden Chinesisch sprechen«, sagte Wiener und eilte den Gang hinunter.“ (S. 122)


Bertram Köhler: (http://www.bertramkoehler.de/vom.htm) Vom Einfachen zum Komplexen

Wesentliche Gedanken aus dem Buch von Murray Gell-Mann: Das Quark und der Jaguar

Inhalt

  1. Komplexe adaptive Systeme

Das Phänomen der Gravitation führte im Verlauf der physikalischen Entwicklung des Universums zur Konzentration der Materie in Galaxien, Sternen und Planeten. Diese Körper zeichneten sich von Anfang an durch Komplexität, Diversität und Individualität aus. Mit dem Auftreten komplexer adaptiver Systeme gewannen diese Eigenschaften dann eine neue Bedeutung. Auf der Erde ging die Entwicklung mit dem Ursprung des Lebens und mit dem Prozess der biologischen Evolution einher, der die bemerkenswerte Vielfalt der Arten hervorbrachte. Das Verhalten von Organismen in Ökosystemen, die Funktionsweise des Immunsystems der Säugetiere, Lernen und Denken bei Tieren und Menschen, die Entwicklung menschlicher Gesellschaften, das Verhalten von Anlegern in Finanzmärkten und die Arbeitsweise von Computersoft- und hardware, mit deren Hilfe Strategien oder Prognosen anhand von Daten aus der Vergangenheit erstellt werden sollen, beruhen im Grunde alle auf den gleichen Prozessen.

Grundlage dieser Prozesse sind komplexe adaptive Systeme, die Informationen über ihre Umwelt und ihre eigene Wechselwirkung mit dieser Umwelt sammeln, Regelmäßigkeiten in diesen Informationen erkennen, die sie zu einem Schema oder Modell verdichten und in der realen Welt gemäß diesem Schema handeln. Es gibt jeweils mehrere konkurrierende Schemata, und die Folgen von Handlungen in der realen Welt wirken auf die Konkurrenz dieser Schemata zurück.

  1. Information und Komplexität

Chaos ist in den meisten Fällen ein Mechanismus, der die der Quantenmechanik innewohnende Unbestimmtheit so verstärken kann, dass sie auf makroskopischer Ebene durchschlägt.

Die Komplexität eines Objektes ist keine eindeutig bestimmbare Größe. Sie hängt ab von der Länge der kürzestmöglichen Beschreibung des Objektes, aber auch von der "Feinkörnigkeit" der Beschreibung und von den für die Beschreibung verwendeten vordefinierten Begriffen.

Der algorithmische Informationsgehalt (AIC) einer konkreten Bitfolge ist die Länge des kürzesten Programms, das die Bitfolge ausdruckt. Eine Zufallsfolge hat den maximal möglichen AIC einer Bitfolge vorgegebener Länge. Vom AIC zu unterscheiden ist die in einer Bitfolge vorgegebener Länge enthaltene Informationsmenge. Diese ist bestimmt durch die mögliche Anzahl unterschiedlicher Bitfolgen gleicher Länge. Für einen Satz gleichwahrscheinlicher Bitfolgen kann ein über diesen Satz gemittelter AIC definiert werden und es kann die mögliche Anzahl unterschiedlicher Bitfolgen mit gleichem AIC bestimmt werden.

Der AIC wird mitunter als algorithmische Komplexität bezeichnet, aber algorithmische Komplexität ist nicht Komplexität schlechthin: Eine Zufallsfolge hat den größten AIC, aber Zufälligkeit ist nicht identisch mit größter Komplexität. Außerdem ist der AIC nicht berechenbar, weil die Zufälligkeit einer konkreten Bitfolge nicht beweisbar ist.

  1. Zufälligkeit

Eine Zufallsfolge ist lt. Definition nicht komprimierbar, aber eine durch einen stochastischen Prozess erzeugte Zahlenfolge kann zufällig doch komprimierbar sein.

Die algorithmische Komplexität ist abgeleitet aus den Zufälligkeiten einer Bitfolge. Die wahre oder effektive Komplexität aber verlangt, zwischen Zufall und Ordnung zu differenzieren. Sie bezieht sich auf die Beschreibung der Regelmäßigkeiten eines Systems durch ein komplexes adaptives System, welches das andere beobachtet.

Die effektive Komplexität eines Systems ist die Länge des Schemas, das zur Beschreibung der Regelmäßigkeiten dieses Systems angewandt wird. In dieser Definition der Komplexität ist von vorn herein die Fähigkeit des beobachtenden Systems zur Unterscheidung von Regelmäßigkeiten und Zufälligkeiten im ausgetauschten Datenstrom berücksichtigt, die wiederum von Zufälligkeiten der Kommunikation abhängt, die erst nach unendlich langer Kommunikation verschwinden würden. Jeder empfangene Datenstrom besteht aus einen regelmäßigen und einem zufälligen Informationsanteil. Der als regelmäßig erkannte Anteil wird zu einem AIC komprimiert und ist durch die Komplexität des Senders bestimmt, der zufällige Anteil wird verworfen. Aus dem regelmäßigen Anteil erwächst das interne Modell des Senders, das die Reaktionen des Empfängers steuert. Dieses interne Modell wird phylogenetisch durch Gene in den Instinkten und ontogenetisch durch Lernprozesse im Gehirn fixiert und ständig ergänzt, wobei sowohl der Anteil der Lernprozesse als auch die Komplexität insgesamt im Laufe der Evolution zunimmt. Auf diese Weise wird die Anpassung eines komplexen adaptiven Systems an seine Umwelt auch durch Zufälligkeiten gesteuert, die nicht als Regelmäßigkeiten erkannt oder als solche fehlinterpretiert werden.

In einem kybernetischen System erfolgt die Anpassung durch direkte Adaptation eines vorgegebenen Schemas oder Modells an die von der Umwelt gestellten Erfordernisse, in einem komplexen adaptiven System gibt es kein vorgegebenes Modell, das interne Modell entwickelt sich aus Zufälligkeiten.

  1. Wissenschaft als komplexes adaptives System

Die wissenschaftliche Erforschung der Welt durch den Menschen kann als Wirken eines komplexen adaptiven Systems interpretiert werden: Aus den Zufälligkeiten und Regelmäßigkeiten der vor sich gehenden Prozesse werden die Regelmäßigkeiten herausgefiltert und zu wissenschaftlichen Theorien verdichtet, die in ihrer Gesamtheit die Welt als Ganzes modellieren. Werden weitere Tatsachen als Regelmäßigkeiten erkannt, so führt das zu einer Erweiterung und Verbesserung der Theorien, welche die Welt beschreiben. Die Komplexität des Universums drückt sich in den Regelmäßigkeiten aus, mit denen die Prozesse der Welt wissenschaftlich beschrieben werden.

Es gibt zwei unterschiedliche Arten von Theorien, mit denen die Regelmäßigkeiten der Welt beschrieben werden. Die erste Art stellt Ursache-Wirkungs-Zusammenhänge her und führt zu einer Erklärung der Welt. Beispiele sind die Theorien des Elektromagnetismus und der Gravitation. Die zweite Art verdichtet empirische Tatsachenfolgen zu empirischen Gesetzmäßigkeiten, die zwar oft auch in mathematischer Form darstellbar sind, aber keine Ursache-Wirkungs-Zusammenhänge darstellen und nicht zu einer Erklärung führen. Zu den letzteren gehört z.B. das Zipf´sche Potenzgesetz und seine Verallgemeinerungen.

Außer der Komplexität können weitere Begriffe zur Beschreibung der Regelmäßigkeiten einer Struktur definiert werden. Während effektive Komplexität durch den AIC der Regelmäßigkeiten definiert ist, ist die (algorithmische) Tiefe bestimmt durch den Aufwand an Rechenzeit, der nötig ist, um aus dem AIC die gesamte Struktur zu rekonstruieren. Ähnlich der Komplexität wächst die Tiefe mit zunehmendem AIC zunächst an, erreicht ein Maximum und nimmt bei großem AIC wieder ab. Die Tiefe ist daher auch ein mögliches Maß für Komplexität. Umgekehrt ist "Kryptizität" der Aufwand an Rechenzeit, der benötigt wird, den AIC einer Struktur näherungsweise zu bestimmen und könnte auch als Maß für Komplexität dienen.

  1. Die Hierarchie der Wissenschaften

Wissenschaft A ist fundamentaler als Wissenschaft B, wenn

Hieraus folgt die hierarchische Ordnung der Wissenschaften in der Folge Mathematik, Physik, Chemie, Biologie, Medizin, Neurologie, Psychologie.

Die Gesetze der Wissenschaften auf den höheren Ebenen lassen sich im Prinzip aus den Gesetzen der Wissenschaften der unteren Ebenen ableiten, wenn zusätzliche Informationen zur Verfügung stehen. Die Wissenschaften der höheren Ebenen sind komplexer als die der niederen Ebenen und enthalten Informationen aus den Zufällen des Evolutionsprozesses. Reduktionismus ist der Versuch, die Gesetzmäßigkeiten der höheren Ebenen ausschließlich aus den Gesetzen der niederen Ebenen abzuleiten. Wegen deren hoher Komplexität ist dies aber praktisch nicht möglich. Sinnvoll ist die gleichzeitige Forschung auf allen Ebenen und die Herstellung von Verbindungen von unten nach oben und von oben nach unten.

  1. Der Quantencharakter des Universums

Eine allumfassende Theorie aller Erscheinungen des Universums, eine sog. Große Vereinigte Theorie (GUT-Theorie), könnte selbst bei zusätzlicher Kenntnis des Anfangszustandes nicht die Evolution des Universums und seinen derzeitigen Zustand berechnen. Der derzeitige Zustand der Welt und sein algorithmischer Informationsgehalt wird nur zu einem kleinen Anteil von fundamentalen Gesetzmäßigkeiten bestimmt, der größte Teil wird von den Zufälligkeiten festgelegt, die sich seit dem Urknall ereignet haben.

Die effektive Komplexität des Universums entspricht der Länge einer prägnanten Beschreibung seiner Regelmäßigkeiten. Der Großteil dieser Regelmäßigkeiten entstammt nicht den fundamentalen Naturgesetzen, sondern Zufallsereignissen, deren spezielle Ergebnisse eine Vielzahl von langfristigen Konsequenzen nach sich ziehen, die alle durch ihre gemeinsame Herkunft miteinander in Beziehung stehen.

Gemäß den Gesetzmäßigkeiten der Quantentheorie befindet sich das gesamte Universum bei größtmöglicher Feinkörnigkeit der Betrachtung stets in einem von immens vielen möglichen Quantenzuständen und geht im Verlauf der Zeit zufällig von einem zu einem anderen möglichen Zustand über. Dieser Zustand kann im Prinzip durch eine Wellenfunktion und deren zeitliche Veränderung beschrieben werden. Die Quantentheorie ist jedoch nicht in der Lage, Wahrscheinlichkeiten dafür anzugeben, zu welchem der möglichen Zustände der Übergang erfolgt, da alle Zustände miteinander in Wechselwirkung stehen und interferieren. Erst wenn alle Zustandsfolgen, die zu einem bestimmten Zielzustand führen, zusammengefasst werden, kann eine Übergangswahrscheinlichkeit definiert und berechnet werden.

Andere Zustandsfolgen, die zu einem anderen Zielzustand führen, definieren nur dann eine andere Ereignisfolge, wenn die betrachteten Zielzustände eine minimale Grobkörnigkeit aufweisen, die den Unbestimmtheitsrelationen der Quantentheorie entspricht. In diesem Falle sind die betrachteten Ereignisfolgen dekohärent, interferieren also nicht mehr. Dieser andere Zielzustand wird dann mit einer anderen Wahrscheinlichkeit erreicht.

Die Grobkörnigkeit kann oberhalb des quantentheoretisch bedingten Minimums beliebig grob gewählt werden und bedeutet den Übergang in den quasiklassischen Bereich. Die verschiedenen Ereigniswege definieren einen Verzweigungsbaum, dessen Äste mit unterschiedlichen Wahrscheinlichkeiten realisiert werden. Nach der Realisierung eines definierten Astes verlieren die alternativen Äste ihre Bedeutung. Die Weiterverfolgung nicht realisierter Ereigniswege in der sog. Vielweltentheorie ist eine Fehlinterpretation der Quantentheorie. Die vom Menschen mit seinen Instrumenten wahrnehmbaren Effekte liegen weit oberhalb der quantentheoretisch bedingten Grobkörnigkeit und werden erst nach entsprechender Verstärkung erkennbar.

Beim Übergang zur grobkörnigen Betrachtung werden alle äquivalenten feinkörnigen Ereignispfade ausnahmslos zu dekohärenten grobkörnigen Ereignispfaden zusammengefasst, diese Zusammenfassung ist aber auf viele unterschiedliche Art und Weise möglich, je nach dem, welche Zielzustände verfolgt werden sollen. Das wirft die Frage auf, wodurch die Zielzustände bestimmt oder ausgewählt werden. Eine grobkörnige Ereignisspur entsteht durch Korrelation eines Quantenereignisses mit einem quasiklassischen Ereignis, das durch Verstärkung eventuell gleich oder später beobachtet werden kann, aber nicht ursächlich durch die Beobachtung. Mit der Bildung der quasiklassischen Ereignisspur sind aber die Art- und Weise der Zusammenfassung zu grobkörnigen Ereignispfaden ein für alle mal festgelegt und alternative Pfade eliminiert. Die Beobachtung des quasiklassischen Ereignisses durch ein komplexes adaptives System und die eventuelle Auswertung dieser Information für zukünftige Handlungen sind in jedem Falle sekundär.

Die Eigenart beobachtender komplexer adaptiver Systeme besteht darin, aus den Datenströmen der beobachteten Systeme die Regelmäßigkeiten herauszufiltern und zu verdichten, die Zufälligkeiten aber zu verwerfen. Regelmäßigkeiten können aber nur gefunden werden, wenn Erhaltungsgrößen und langsam veränderliche Fasterhaltungsgrößen vorhanden sind, welche die Regelmäßigkeiten hervorrufen. Komplexe adaptive Systeme können deshalb nur solche grobkörnige Ereignispfade beobachten, die von Erhaltungsgrößen geprägt werden. Theoretisch mögliche andere Zusammenfassungen von feinkörnigen Ereignisfolgen zu grobkörnigen Ereignispfaden können deshalb von komplexen adaptiven Systemen prinzipiell nicht beobachtet werden. Wir Menschen können deshalb grundsätzlich nur den Ausschnitt des gesamten Weltgeschehens wahrnehmen, der erstens von Erhaltungs- und Fasterhaltungsgrößen geprägt ist und zweitens so vergröbert und verstärkt wird, dass unsere Sinnesorgane und Messinstrumente ihn wahrzunehmen und auszuwerten in der Lage sind.

Die gegenwärtige effektive Komplexität des Universums wird zum größten Teil durch die Vielzahl individueller Objekte bestimmt. Objekte besitzen dann eine Individualität, wenn die zur Beschreibung ihrer Eigenschaften notwendige Bitzahl größer ist als die in Bit ausgedrückte Anzahl der insgesamt vorhandenen Objekte dieser Art. Kein beobachtendes komplexes adaptives System ist aber in der Lage, die gesamte im Universum vorhandene Information aufzunehmen und auszuwerten. Wir nehmen nur den Teil auf und werten ihn aus, der für unsere zukünftigen Handlungen von Bedeutung ist.

  1. Zeitpfeil und Entropiesatz

Die fundamentalen Gesetze der Quantentheorie, der Elektrodynamik und der Relativitätstheorie enthalten keine Zeitrichtung und kennen deshalb auch keine Kausalität. Erst durch den Übergang feinkörniger Betrachtung zur Grobkörnigkeit entstehen Signale und Spuren der Vergangenheit, erhält der Zeitpfeil eine Richtung von der Vergangenheit zur Zukunft, entsteht ein kausaler Zusammenhang von Ursache und Wirkung und kann eine Ordnungsgröße wie die Entropie überhaupt definiert werden. Mikrozustände können richtungslos ineinander übergehen, nur Makrozustände gehen entsprechend dem Entropiesatz aus geordneten in ungeordnetere Zustände über. Der Anfangszustand des Universums war ein hoch geordneter Zustand, der während seiner Entwicklung längs grobkörniger Pfade an jedem der zufälligen Verzweigungspunkte Spuren der Vergangenheit hinterlassen hat. In die Zukunft gibt es solche Spuren nicht, der in ferner Zukunft liegende Endzustand ist deshalb vollkommen offen und unbestimmt. Die Entropie ist ein Maß dieser Unbestimmtheit.

Die die effektive Komplexität bestimmenden Regelmäßigkeiten des Universums entstehen aus den in den Verzweigungspunkten zufällig gesetzten gemeinsamen Ursachen der weiteren Entwicklung. Die in den Regelmäßigkeiten enthaltene Information bestimmt die Komplexität der entstandenen Struktur und spiegelt die eingefrorenen Zufallsereignisse der Vergangenheit wieder. Da mit fortschreitender Zeit sich die Anzahl dieser Zufallsereignisse aufsummiert, nimmt im Laufe der Evolution auch die Komplexität des Universums zu. Gespeicherte Information vermindert Unbestimmtheit und Unordnung. Der algorithmische Informationsinhalt (AIC) hat deshalb die Bedeutung einer negativen Entropie, die der thermodynamischen Entropie hinzugefügt werden muss, um die Gesamtentropie im Sinne eines Maßes der Unordnung zu erhalten. Die Zunahme der Komplexität wäre dann ein gesetzmäßiger Vorgang, der der Zunahme der thermodynamischen Entropie entgegenläuft. Zwar ist gegenwärtig die Informationsentropie nur ein geringer Anteil der Gesamtentropie, aber Aussagen zur zeitlichen Entwicklung dieses Anteils gibt es nicht.

Gell-Mann vertritt dann die Auffassung, dass die Komplexität des Universums in kosmologisch fernen Zeiträumen nicht weiter anwachsen kann und wieder abnehmen muss. Das würde die Reaktivierung der Theorie des Wärmetodes bedeuten, Gell-Mann räumt aber ein, das dieses Szenario spekulativ und nicht allgemein akzeptiert ist.

  1. Lernen und kreatives Denken

Lernen ist die Schritt – für - Schritt – Anpassung eines komplexen adaptiven Systems an die Regelmäßigkeiten seiner Umwelt. Im Ergebnis entsteht eine Theorie als inneres Modell der Umwelt, die dem Erreichen eines lokalen Gipfels durch einen Organismus in der Fitnesslandschaft der biologischen Evolution entspricht. Die Weiterentwicklung einer solchen lokal optimierten Theorie ist nur durch einen kreativen Denkakt möglich, der ähnlich einer zufälligen Mutation eines Gens zunächst weiter weg von dem optimierten Punkt der Fitnesslandschaft führt, von dem aus ein Anstieg zu einem höheren Gipfel möglich ist. Ein solcher Denkakt hat immer den Charakter eines zufälligen Rauschens, durch den die naheliegenden Lösungen übersprungen werden. Deshalb entstehen weitreichende neue Theorien selten am Schreibtisch und tauchen häufig plötzlich aus dem Unterbewusstsein großer Denker auf. Um diese Denktechnik bewusst zu fördern, benutzte Edward De Bono die Methode, bei schwer lösbaren Problemen das letzte Substantiv auf der Titelseite seiner Tageszeitung auf sein Problem anzuwenden, egal, welcher Art es war.

  1. Aberglaube und Leugnung

Komplexe adaptive Systeme stellen Regelmäßigkeiten in den Datenströmen , die sie empfangen, fest und verdichten diese Regelmäßigkeiten zu Schemata. Dabei können leicht zwei Arten von Fehlern unterlaufen, nämlich dass man Zufälligkeit irrtümlich für Regelmäßigkeit hält und umgekehrt. Betrachtet man menschliche Denkmuster, so kann man die eine Art von Irrtum in etwa mit Aberglauben, die andere mit Leugnung gleichsetzen. Typisch für abergläubige Vorstellungen ist die Auffindung einer Ordnung, wo es in Wirklichkeit keine Ordnung gibt. Leugnung läuft auf Verwerfen von Beweisen für Regelmäßigkeiten hinaus. Beide Arten von Irrtümern treten oft gleichzeitig auf und weisen auf Unzulänglichkeiten im richtigen Erkennen von Regelmäßigkeiten hin.

Aus der realen Umwelt stammende Selektionsdrücke bewirken sowohl auf der Ebene der Gene als auch auf der Ebene der richtigen Erkennung von Regelmäßigkeiten die für das Überleben notwendige Anpassung. Vor allem auf der Ebene gesellschaftlicher Prozesse Wirken aber häufig Selektionsdrücke, die nicht aus der realen Umwelt resultieren, sondern die von einflussreichen Autoritäten und Vorbildern erzeugt werden. Hieraus resultieren dann gesellschaftliche Fehlentwicklungen, die erst nach langer Zeit oder überhaupt nicht mehr korrigiert werden können.

Eine derartige Fehlinterpretation ist auch die weitverbreitete Annahme, das Handeln der Menschen werde durchweg aus rationalen Gründen zur Erlangung von Besitz und Reichtum bestimmt. Solche Handlungsweisen sind weitgehend von den Selektionsdrücken der Umwelt und von Autoritäten bestimmt, die ebenfalls gravierenden Veränderungen unterliegen können. In anderen Umgebungen können Handlungsmotivationen von ganz anderen Werten beeinflusst sein.

  1. Lernende Maschinen

Computer können als komplexe adaptive Systeme funktionieren und deshalb zur Untersuchung von Evolutionsprozessen eingesetzt werden. Auch die Simulation gesellschaftlicher Entwicklungsprozesse ist möglich, erfordert aber die Simulation von Populationen adaptiv und voneinander unabhängig handelnder, aber voneinander lernender Individuen.

  1. Entwicklungsprobleme der Menschheit

Die notwendigen demographischen, technologischen, ökonomischen und sozialen Übergänge können nicht durch weitere ausschließliche Spezialisierung und Vereinzelung bewältigt werden, sondern erfordern in zunehmendem Maße eine umfassende Integration des Wissens der Menschheit und einen grundlegenden ideologischen Übergang in Richtung auf ein globales Bewusstsein, das Menschheit und Natur als einheitliches, komplexes adaptives System begreift.