zurück ]      [ Stichworte ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]         [ Meine Bücher ]

Keil-Slawik, R..: Das kognitive Schlachtfeld, in: Irrgang, B. /Klawitter, J. (Hrsg.): Künstliche Intelligenz. Wissenschaftliche Verlagsgesellschaft, Stuttgart 1990

Anmerkungen von Röbi

Keil-Slawik hat einen Lehrstuhl für Informatik und Gesellschaft in Paderborn. Er hat das Buch von Rolf gelesen und verstanden. Auf die Frage nach Widersprüchen von Keil-Slawik sagt Rolf: "Wenn Keil-Slawik spricht, merke ich, dass er es richtig meint, aber er spricht nicht richtig. Der Widerspruch liegt auf der sprachlichen Ebene".

Materialien

Die Auseinandersetzung um die Möglichkeiten und Grenzen der künstlichen Intelligenz ist durch die Gegenüberstellung von Mensch und Maschine geprägt. Mit Argumenten, die häufig mit der Phrase 'im Prinzip...' beginnen, wird für und wider die potentiell mögliche Leistungsfähigkeit der Maschinen gestritten. Ein solcher Streit bietet zwar viele nützliche Hinweise und interessante Überlegungen - Vgl. u.a. den Literaturüberblick in Keil-Slawik, R.: Von der Mechanisierung des Kopfes zur Oekologie des Geistes. Ein Literaturüberblick zu anthropologischen Aspekten menschlicher und künstlicher Intelligenz. Erscheint in M. Stöhr/H. Wendt (Hrsg.): Menschliche und künstliche Intelligenz. Frankfurt 1990. - doch ist es letztlich unumgänglich, solche Im-Prinzip-Argumente durch tatsächliche zu ersetzen (80).
Der Kernpunkt meiner Argumentation ist (...), dass man nicht Mensch und Maschine vergleichen kann, sondern in einer gegebenen Situation immer nur die Möglichkeiten und Fähigkeiten der Konstrukteure einer Maschine mit denen der Benutzer. (80) Unterscheidung zwischen herkömmlichen Ingenieurprodukten und Software unter vier Gesichtspunkten: Betriebszustände, Funktionalität, Rückbezüglichkeit und Theoriebildung. (81f)
Betriebszustände:
Ingenieurmässig erstellte Produkte können entweder als diskrete, analoge oder als hybride (...) Systeme klassifiziert werden. Für analoge Systeme (...) gibt es heute ausgereifte Hilfsmittel, wie zum Beispiel die Mathematik kontinuierlicher Funktionen, mit deren Hilfe es dem Ingenieur möglich ist, sicherzustellen, dass keine unvorhergesehene Zustände auftreten (...). Mit der Entwicklung von Softwaresystemen jedoch, so argumentiert David Parnas, haben wir zum ersten Mal diskrete System geschaffen, die eine ungeheure Vielzahl von Betriebszuständen aufweisen.
Funktionalität:
Traditionell bestehen ingenieurmässige Probleme darin, neue technische Lösungen für bereits bekannte Funktionen zu entwickeln. (...) Bei der Softwareentwicklung jedoch müssen die funktionellen Anforderungen überhaupt erst ermittelt werden. Dabei spielen zwei Faktoren eine besondere Rolle: der Mangel an allgemein anerkannten Standards und die Individualität der Akteure. (...) Die Funktionalität eines Softwaresystems ist weniger das Ergebnis einer technischen Analyse als vielmehr das Resultat von Verhandlungen und Vereinbarungen (81).
Rückbezüglichkeit:
Ausgangspunkt für die Softwareherstellung sind bestehende Regelungen, Verfahren und Arbeitsabläufe. Mit der Einführung eines Softwaresystems ändern sich diese aber grundlegend und damit auch das Verhalten der Menschen. Dadurch werden viele Annahmen, die der Entwicklung zugrunde gelegt worden sind, hinfällig. Die Folgen sind, dass zum einen das der Entwicklung zugrundegelegte Modell nicht mehr im vollen Masse gültig ist und zum anderen, dass durch die veränderte Situation neue Anforderungen entstehen, die erste jetzt in ihrer Tragweite und mit all ihren Konsequenzen erkannt werden können (81f).
Theoriebildung:
Programmieren kann nach Peter Naur (...) nicht in erster Linie als Produktion von Programmen und zugehörigen Texten betrachtet werden, sondern als Prozess, bei dem die Programmierer im Laufe der Systementwicklung eine Theorie darüber entwickeln, wie die vorhandenen Probleme durch die Programmausführung gelöst werden können. Diese Theorie ist nur in den Köpfen der Entwickler vorhanden: 'Das Wiederherstellen der Theorie lediglich aufgrund der Dokumentation ist gänzlich unmöglich'. In tradtionellen Ingenieurbereichen sind aber die theoretischen Grundlagen bereits vor der Produktentwicklung erarbeitet (82). Das gilt umgekehrt auch für die Benutzer, die sich die Systemrationalität, also die Theorie der Entwickler erschliessen müssen. Das verlangt nach Ausdrucksmöglichkeiten. Etwa die Hälfte des Codes praktisch eingesetzter Software besteht daher aus Benutzungsschnittstellen, Fehlermeldungen, Ausnahmebehandlungen und Kommentierungen, Aspekten also, die der Verständiung dienen und nicht der algorithmischen Verarbeitung durch den Rechner. Diese Aspekte sind weder aus formalen Qualitätseigenschaften ableitbar noch sind sie formal 'überprüfbar' (83). Grundsätzlich kann man Software auch als eine Ansammlung von Plänen auffassen, denn die Entwickler legen fest, was zur Laufzeit des Programms wie, in welcher Reihenfolge und unter welchen Umgebungsbedingungen ausgeführt werden soll. Mit dieser Sichtweise lassen sich (...) viele Anknüpfungspunkte an die traditionelle Ingenieurwissenschaft angeben, denn Planungsprozesse offenbaren auch dort dieselben Probleme, die man aus der Softwareentwicklung kenn: Kosten werden nicht eingehalten, Termine werden überschritten, das Ergebnis entspricht oft nicht den Vorstellungen der Auftraggeber und der Betroffenen und nicht alle Ergebnisse, die die Ausführung der Pläne und ihr Ineinandergreifen beeinflussen, können vorhergesehen werden (83). Das Pearl-Harbor-Syndrom: Seit dem Überfall der Japaner auf den Hafen von Pearl Harbor, bei dem die amerikanischen Pazifikflotte fast vollständig zerstört wurde, ist die Angst, dass sich ein solcher Vorfall auch auf amerikanischem Territorium wiederholen könnte, zu einem treibenden Element der militärtechnologischen Entwicklung in den USA geworden. Pearl-Harbor steht für die Folgen, die durch ungenügende Information und mangelnde Vorwarnung enstehen können (83f). Die Gegenmassnahmen erfolgen in fünf Phasen.
Aufbauphase: Enwicklung von computergestätzten Frühwarnsystemen und Radarketten.
Phase II: Integration von Frühwarnsystem und Einsatzplanung.
Phase III: Integration der Frühwarn- und Befehlsysteme mit den Kommunikationssystemen.
Phase IV: Integration der Aufklärungsinformation der Geheimdienste in die bisherigen Komponenten (Command, Control, Communication and Intelligence).
Phase V: Zentrales, integriertes Schlachtenführungsssytem (SDI, Strategic Defense Initiative). Dafür sind 'revolutionäre' Techniken nötig => KI. (83ff).
Um die Tauglichkeit von KI-Systemen für militärische Zwecke demonstrieren und die dabei auftretenden Probleme studieren zu können, werden in dem Forschungsprogramm drei Anwendungen beschrieben (...) ein autonom operierendes Landfahrzeug für das Heer, einen automatischen Co-Piloten für die Luftwaffe und ein Schlachtenführungssystem für die Marine (88). Da wissensbasierte Systeme schwierig zu verstehen und zu überprüfen sind und der Aufwand zur Aufstellung von x-tausend Regeln enorm ist, lautet daher die 'ballistische' Lösung (vgl. Eintrag unter Problemlösung /Anm. ot), den Wissensaquisitionsprozess zu automatisieren, indem Expertensysteme zur Entwicklung von Expertensystemen entwickelt werden (90). Damit handelt man sich jedoch Probleme ein.
Man weiss in der Softwaretechnik, dass es für die Ingenieure in der Regel nicht möglich ist, grössere Programmteile, die von einer Maschine generiert worden sind, zu verstehen und zu überprüfen. Die vielen Möglichkeiten den Programmtext informell anzureichern, zum Beispiel durch Kommentare oder eine geignete Namensgebung für Prozeduren, Regeln und Daten, gehen bei der automatischen Erzeugung verloren. Die Konsequenz lautet hier, bei Änderungen die manuell erstellten Teile vom Menschen ändern zu lassen und, soweit es die anderen Teile betrifft, diese grundsätzlich neu zu generieren (91).
Umgekehrt gibt es kein einziges praktisch eingesetztes Softwaresystem, das nur unter Bezugnahme auf ein geschriebenes Dokument entwickelt worden wäre; dies ist praktisch nicht machbar (ebd.).
Abhilfe erhofft man sich von Expertensystemen, die die natürliche Sprache verstehen verarbeiten können. Doch der Begriff 'Verarbeitung natürlicher Sprache' ist bei Softwaresystemen irreführend, denn Computer erfüllen keine der für den Erwerb der natürlichen Sprache notwendigen biologischen und sozialen Voraussetzungen. Sie sind Produkte von Enwicklern und Ingenieuren und können daher immer nur die Kreativität ihrer Schöpfer widerspiegeln (92).
Da Computer also weder über Lebenserfahrung verfügen noch über gesunden Menschenverstand, kann die Bedeutung von Sätzen immer nur vor dem Hintergrund der im Rechner vom Menschen angelegten Strukturen und Objekte erschlossen werden (ebd.). Es ist nicht die natürliche Sprache, die für sich allein Bedeutung hat; es ist die Verknüpfung mit unserem Handeln in der jeweiligen Situation. Das Wort erlangt Bedeutung, indem es zur Tat wird (93). Die Stärke des Menschen besteht darin, jeweils situationsbedingt flexibel und angemessen reagieren zu können und dabei auch - falls dies erforderlich sein sollte - gezielte Regelverletzungen zu begehen (...). Seine Schwäche aber besteht darin, dass er komplexe Zusammenhänge und komplizierte Prozesse mit all ihren Wechselwirkungen und Nebeneffekten nicht auf Anhieb durchschauen und vorherbestimmen kann (93). Wer kann es, wenn es der Mensch nicht kann? Die Maschine kann nichts durchschauen, auch die einfachsten Zusammenhänge nicht! Das 'nicht auf Anhieb durchschauen' können, ist keine Schwäche des Menschen, sondern eine Herausforderung für ihn und nur für ihn!
Akteure sind oft nicht in der Lage, für ihr Verhalten enstprechende Regeln abzugeben. Das heisst, sie wissen mehr als sie explizit beschreiben können. Daraus folgt, dass
1. Expertise nicht vollständig in Regeln erfasst und beschrieben werden kann,
2. komplexe Systeme nur funktionieren, wenn die Benutzer mehr als nur das Vorgeschriebene tun
3. verantwortliches Handeln meist Regelverstösse beinhaltet. Verantwortung, Pflicht, Motiviation und Intuition sind Aspekte, die weder durch Regeln noch durch Vorschriften eigefangen werden können.

Diese Grundsätze haben auch für Organisationen ihre Gültigkeit: durch Dienst nach Vorschrift können sie an den Rand des Zusammenbruchs gebracht werden. Softwaresysteme im allgemeinen wie auch KI-Systeme im besonderen mach aber grundsätzlich keinen Dienst nach Vorschrift (94). Der Traum, dass der Mensch etwas hervorbringt, was nicht nur in Teilbereichen, sondern im Ganzen besser ist als er selbst, ist nichts anderes als die Suche nach einem kognitiven Perpetuum mobile (Vgl. dazu die Ausführungen in Keil-Slawik, R.: Das kognitive Perpetuum mobile. Die Rolle von Computern mit künstlicher Intelligenz in der militärtechnologischen Enwicklung. In: G. Bechmann/W. Rammert (Hrsg.): Technik und Gesellschaft. Jahrbuch 5. Frankfurt 1989).
Maschinen und Softwaresysteme verkörpern immer nur den Kenntnisstand ihrer menschlichen Schöpfer. Es gibt keine Maschinenevolution; Maschinen leben nicht und lernen nicht aus Fehlern. Eine Maschine wird von Menschen für einen bestimmten Zweck entworfen, gebaut und benutzt. Ihr Wert besteht darin, dass sie sich auf eine wohldefinierte und voraussagbare Art und Weise gemäss des gesetzten Zweckes verhält (95).
KI-System können (...) nur dann unsere Sicherheit erhöhen, wenn wir bezüglich unserer Entscheidungsmöglichkeiten insgesamt weniger abhängig sind von der Technik (ebd.) Die Verantwortung trägt der Mensch. Er kann aber nur verantwortlich handeln, wenn er auch Wahlmöglichkeiten hat, wenn er entscheiden kann (ebd.) Vgl. von Förster! Mit der Übernahme von Entscheidungen vertauschen wir die Rolle des 'unbeteiligten Beschreibers' mit der des 'mitfühlenden Beteiligten', wobei das fühlen hier wörtlich zu nehmen ist. Ängste, Wünsche, Hoffunungen und Ideale sind ein wesentlicher Bestandteil unserer Intelligenz, genauso wie Schmerz und Leid; ohne sie wäre sie sinnlos.
Krieg ist kein kognitives Ereignis; er ist die Zerstörung von Leben. Wenn wir das mitfühlen, können wir Verantwortung übernehmen (ebd.) Soziale Systeme sind vertrauensbasierte Systeme, wissen können wir etwas immer nur im nachhinein. Wir können unsere Verantwortung nicht als vorgefertigte Entscheidung in Maschinen verlgen - auch nicht in angeblich intelligente, denn KI-System sind unverantwortlich; sie sind bestenfalls berechnend (ebd.)
Im-Prinzip-Lösung, Externes Gedächtnis, Funktion, Programmieren, Software, Entscheidung, Modell, Künstliche Intelligenz, Problemlösung, Mensch, Expertensystem, Verantwortung, Kognition,