Rolf Todesco

Formale Methoden in der Soziologie

nicht auf Papier publiziert


 

   Formell impliziert die Ueberschrift dieses Aufsatzes drei Fragen: Was sind Methoden, was sind formale Methoden und wie gehen sie in die sozialwissenschaftliche Forschung ein? Substantiell versucht dieser Aufsatz einen Beitrag zum Methodenwahlproblem zu leisten, indem in ihm Implikationen verschiedener Methoden verglichen werden. Speziell betrachtet werden hier Codierungen von Fragestellungen in bestimmten Sozialwissenschaften, den sogenannten - logien, die mit der Anwendung statistischer und kybernetischer Instrumentekorrelieren. Damit ist aus der baum-förmigen Hierarchie, die durch die erwähnten formellen Fragen entsteht, ein bestimmter Teilbaum herausgegriffen, es werden weder beliebig viele Methoden, noch deren Anwendungen innerhalb aller Sozialwissenschaften im weiteren Sinne thematisiert.

   Der besseren Verständlichkeit wegen wird parallel - im wörtlichen Sinne - ein inhaltliches Beispiel geführt; der Tradition von Einführungen in formale Methoden folgend, ein relativ simples Beispiel.


Was sind Methoden?

   Bestimmte Dinge kann man als Ziele oder als Zwecke auffassen. Dies tut man immer dann, wenn man für die Entstehung eines solchen Dinges einen bestimmten Aufwand leistet. Manchmal investiert man mehrmals in strukturell verwandte Dinge, das heisst man reproduziert sie teilweise. Dann wird man die Aufwände vergleichen. Dabei, beim Vergleichen wird man (*Die Redewendung "wird man" behauptet hier eine empirische Regularität.*) die Erreichung des Zieles analytisch als Wirkung von Bestimmungen und Bedingungen (steuerbare und andere Variablen) auffassen, die reproduzierbar sind, resp. eine gewisse Auftretenswahrscheinlichkeit haben. Man wird also induktiv eine bestimmte Zweckerreichung als speziellen Fall eines allgemeinen Prinzips betrachten. Das Prinzip besteht aus abstrakten Beziehungen, die eine bestimmte Sachlogik diktieren und so den Reproduktionen einen Rahmen abstecken. Alle konkreten Verfahren, die sich solchen abstrakten Prinzipien beugen, nennen wir Methoden (* Die abstakte Heraushebung von Methoden dient der Reproduzierbarkeit).


Was sind formale Methoden ?

   Jenseits substantieller Probleme und Problemlösungen, die immer an empirisch Vorfindbarem anschliessen, lassen sich logische Bezüge konstruieren, beispielsweise in Form von Axiomen. Logische Aussagen können wahr und richtig sein, ohne dass ihnen empirisch irgend etwas entspricht. Hat man eine bestimmte Logik, so kann man deduktiv herleiten "was geht" und "was nicht". Solche Konstrukte sind formal, ohne jeden Inhalt. Sie bilden den Raum der eigentlichen Probleme, das heisst jener Aufgaben deren Lösungen sich - im Prinzip - beweisen lassen.

   Die formale Welt - sie wird oft als eine Modellwelt von einer realen Welt unterschieden - hat ihre eigenen Methoden, aber es sind natürlich nicht diese, die hier mit formalen Methoden bezeichnet werden.

   Unter formalen Methoden verstehen wir hier vielmehr jene Methoden, die nur angewendet werden können, wenn die folgenden zwei Voraussetzungen als erfüllt betrachtet werden: Erstens muss man allgemein eine strukturelle Verwandtheit zwischen logischen und empirischen Verhältnissen akzeptieren und zweitens muss man diese Verwandtheit im konkreten Fall erkannt haben.

   Die erste Bedingung wird als erfüllt taxiert, indem beide Welten in einem gemeinsamen Zeichensystem, in einer sogenannten Platzhalter-Sprache beschrieben werden, die zweite, indem logische Operatoren auf empirische Abstaktionen angewendet werden. Nebenbei, beide Welten scheinen in der möglichen gemeinsamen Beschreibung eine Selbstbestätigung zu finden. Beide prüfen ihre Korrektheit oder Sinnhaftigkeit in der je andern.

   Wo logische und empirische Verhältnise unterschieden werden, können natürlich beide Seiten Ausgangspunkte für Problemformulierungen sein. In der Tat wurden bereits recht viele formale Spiele mit erheblicher logischer Konsistenz entwickelt und nachträglich mit empirischem Material zu Sinnhaftigkeit erhoben, man denke nur an die Spielereien mit der Graphentheorie, der Markovkette und den Konzepten der Kybernetik. Man denke an die populären Weltmodelle. Hier interessiert aber gerade das Gegenteil:

   Hier interessiert der in den Sozialwissenschaften übliche Fall, nämlich die induktive Verallgemeinerung eines substantiellen Problems, resp. der Einfluss den formale Methoden in diesem Zusammenhange spielen.


Was leisten formale Methoden in den Sozialwissenschaften?

   Wie wohl jedem Sozialwissenschaftler spätestens seit dem Positivismusstreit bekannt ist, müsste sich die Methode dem Zweck der Forschung unterordnen. Leicht gesagt. Dem konkreten Forscher sind aber immer eine bestimmte Anzahl bewährter Methoden bekannt. Wenn nun nicht-formale Techniken ausgeschlossen bleiben, dürfte die statistische Korrelation das bekannteste Instrument sozialwissenschaftlicher Untersuchungen sein.


Statistik

   Von einer statistischen Korrelation spricht man, wenn die Werte von zwei Variablen, die nicht dasselbe messen über eine mathematische Funktion verknüpft sind. Ueblich ist es, empirische Abweichungen als (normal)verteilte Störungen aufzufassen und als Streuung zu referieren. Als analytisches Instrument verlangt die Korrelation die Definition von zwei Variablen, die mindestens nominell "messbar" sein müssen und die (allerdings formal nicht leistbare) Begründung einer Kausalität (etwa zeitliches Vorangehen der unabhängigen Variablen oder eine abgeschlossene Reihe im multivariaten Test).

   Wer die Korrelation im Auge hat, wird also (mindestens) zwei, substantiell plausible Messpunkte festlegen um zu einer belegbaren kausalen Aussage zu gelangen.

   Nun zeigt sich - ich verweise speziell auf das Beispiel - häufig, dass die Suche nach solchen Messstellen den unangenehmen Effekt hat, nicht-manipulierbare Variablen zu begünstigen (wenn man etwa weiss, dass die Katholiken oder die Deutschen oder die Kleingewachsenen ... , dann kann man eben, wie im Beispiel hier, bestensfalls ausweichen!). Oder anders - mehr alltagsorientiert - ausgedrückt, man erhält oft eine gute Erklärung, die doch nicht viel nützt.

   Die Bemühung handlungsorientiertere Erklärungen zu leisten, führte u.a. dazu, die Datenerhebung nicht mehr auf statistische Korrelationen, sondern auf andere formale Instrumente auszurichten. Dabei bevorzugen wiederum viele den sogenannten Regelkreis der Kybernetik.


Kybernetik

   Es ist logisch klar, dass die oben genannten Voraussetzungen formaler Methoden auch dabei in Kraft bleiben und es ist empirisch wahr, dass substantiell engagierte Sozialwissenschaftler auch hier ein fertiges, zur Anwendung bereites Instrumentarium vorfinden und sich über dessen Entstehung so wenig zu kümmern brauchen, wie um die Entstehungsgeschichte des von ihnen benutzten Schreibwerkzeuges.

   Es ist ausserdem klar, dass ein System mit mehreren Gleichungen weder statistisch noch kybernetisch ist, dass ein bestimmtes System aber in verschiedenen "Porgrammiersprachen" formuliert werden kann. In der kybernetischen Form eines Gleichungssystems ist die Systemdynamik als iterative Anweisung selbst beschrieben, während sie in der konvetionellen Notation lediglich im analytischen Grenzwert, resp. in (0-gesetzten) Ableitungen in Erscheinung tritt. Kybernetische Instrumente haben damit den Charakter von höheren Programmiersprachen wie Fortran oder Pascal, die Prozessbegriffe enthalten und so das Arbeiten erleichtern; die Dynamik eines Systems kann aber auch auf "tieferer Ebene " festgehalten werden (*"kann", wenn "man" kann. Man darf die Vereinfachungen, die die kybernetische Codierung im konkreten Fall leistet, nicht unterschätzen. Sie können für die Erreichung von kritischen Lösungen ausschlaggebend sein!)

   Von einem kybernetischen Regelkreis spricht man, wenn der Wert einer Variablen gegen bestimmte Einflüsse konstant gehalten wird, (oder kybernetischer: Regelung blockiert den Fluss der Vielfalt, wobei Vielfalt die realisierbaren Variablenwerte bezeichnet).

  Kybernetische Instrumente leisten im Gegensatz zu statistischen die Annahme, dass die empirischen Daten selbst, und nicht lediglich innerhalb ihrer Streuung liegende Mittelwerte (Regression) beschreibbar sind.

   Wer den Regelkreis im Auge hat, wird - handlungsorientiert - einen substantiell plausiblen Messpunkt, welcher als steuerbare Variable reguliert werden kann, festlegen. Dazu müssen die Daten aus ihren vordergründigen Kategorien herausgelöst und einer dynamischeren und systematischeren Betrachtungsweise unterzogen werden. Der dynamische Aspekt der Betrachtung verlangt eine Abstraktion von sinnlichen Entitäten, man muss Bewegungen (Transitionen) ent- oder aufdecken. Den systematischen Aspekt realisiert man, indem man die zu untersuchende Sache aus ihrer im empirischen Phänomen übergeordneten raum-zeitlichen Abfolge herauslöst, um so auf andere mögliche Kausalitäten zu stossen.

   Kybernetische Instrumente focusieren - und das charakterisiert sie als Mittel einer eigenständigen Betrachtungsweise - nicht den zeitlichen, sondern den genetischen Anfang eines konkreten Problemes. Kybernetisch wird die Reproduktion eines Systems, nicht seine sich wiederholende, ursrüngliche Produktion untersucht. Und eben in diesen Punkten liegt ein prinzipieller Vorteil des kybernetischen Instrumentes: wer Hypothesen unabhängig von der sinnhaft gegebenen Datenstruktur formuliert, muss sich genauer überlegen, was er erforscht und allenfalls validiert oder verifiziert. Lediglich prinzipiell ist der Vorteil, weil das Kunststück , ein relevantes System zu isolieren, jeweils erst gelingen muss. Denn, wie das Beispiel verdeutlicht, implizieren bereits die primitivsten der substantiell gewonnenen Problemstellungen Kriterien von beachtlicher Komplexität: "Durchflussrate in Abhängigkeit der Durchflussgeschwindigkeit".

   Bis heute steht denn auch der Beweis aus, dass in irgend einer sozialwissenschaftlichen Sparte im engeren Sinne kybernetische Methoden produktive Prognosen ermöglichen, also eine konkrete Variablensteuerung begründen können (Wiener, der Erfinder der Kybernetik, befürchtete von allem Anfang an, und zwar aus statistischen Gründen, was auch den Statistikern zu denken geben müsste, dass dieser Beweis unantretbar bleibt.)

   Dazu sind zwei Bemerkungen, eine einschränkende und eine generelle nötig.

   Einschränkend ist zu sagen, dass die Sozialwissenschaften ein nicht genau definiertes Feld abdecken, mit verschiedenen andern Gebieten Ueberlappungen aufweisen. Wie im parallel geführten Beispiel illustriert wird, existieren nämlich tatsächlich Probleme, die formal erhellbar sind. Fraglich ist nur, inwieweit es gesellschaftliche Probleme sind.

   Dann existieren gesellschaftliche Formalisierungen, das heisst Formalisierungen, die Gesellschaften prägen, zu gesellschaftlichen Formationen machen, und so von den Gesellschaftsmitgliedern allgemein akzeptiert sind: In unserer Gesellschaft das Geld, resp. die in ihm ausgedrückte Gleichwertigkeit ganz verschiedener Dinge. Wissenschaften, die über solch akzeptierte Formen Aussagen machen, in unserer Gesellschaft beispielsweise die Oekonometrie, müssen sich bei der Verwendung formaler Methoden nur noch der relativen Adäquatheit ihrer formalen Systemen vergewissern, das "inhaltliche" Problem erscheint ihnen als von der Gesellschaft gelöst. Ihnen drängen sich formale Hilfsmittel geradezu auf. Nur auch ihr Gegenstand ist lediglich in eienm sehr weit gefassten Sinne sozialwissenschaftlicher Art.

   Schliesslich könnte man Sozialwissenschaften im engeren Sinne gerade am Kriterium ausgrenzen, dass die Formalisierung ihrer Gegenstände nach spezieller Begründung verlangt (Dafür besteht ein zweiseitiges Indiz: auf der einen Seite die Problematisierung der sogenannten Messniveaus (Skalentypen) in formalen Lehrgängen für Sozialwissenschafter, auf der andern Seite der wachsende relative Anteil von Methodenkapiteln in sozialwissenschaftlicher Literatur.

   Damit ist der gesicherte Nutzen formaler Methoden auf bestimmte Forschungen eingeschränkt. Die Einschränkungen oder Abgrenzung lässt sich noch etwas anders charakterisieren: Formalisierungen verlangen oder produzieren eindeutige Probleme, die (von) einem homogenen Subjekt gestellt sind und eine relative, also eine systemimmanente Lösung haben. Wenn man also - wie in unserem Beispiel - den Verkehrsstau am Walensee als gesellschaftlich verlorene Zeit, die allen Betroffenen gleichmässig abgeht, behandelt, hat man bereits eine bestimmte Formalisierung vollzogen. Man hat bestimmte Zeiten als Entitäten gewählt, man summiert damit nur die im Augenblick verlorene Zeit, nicht aber jene Mehrproduktionszeit für Mercedes gegenüber Volkswagen, mit welcher sich eventuell gesellschaftlich verlorene Zeit kompensieren liesse, wenn dies überhaupt noch nötig wäre. Vielleicht würden die Staus ganz verschwinden, wenn die frustrierende Produktion von Superluxus ihren dominanten Einfluss auf die Freizeitbeschäftigung verlieren würde. Vielleicht müsste man auch die unbenützte Zeit, über welche der öffentliche Verkehr verfügt ... Vielleicht ...

   Zwar können solche Vielleicht-zusammenhänge, wie Ilich gezeigt hat (Ihm zufolge fährt ein Auto, wenn man seine Produktions- und Reproduktionszeit zur seiner absoluten Fahrzeit hinzuzählt, mit einer Durchschnittsgeschwindigkeit von 15 km/h), verrechnet werden, nur lässt sich - empirisch offensichtlich - für solche Komplexität keine allgemeingeteilte Formalisierung mehr finden. Empirisch findbare Formalisierungen beziehen sich immer auf vereinfacht-vereindeutigte Probleme, wobei die Vereinfachung eben meist in einer halb-bewussten Ausschliessung von Alternativen besteht. Wem aber eine solche Vereindeutigung eines Problemes "gelungen" ist, dem bieten kybernetische Formalisierungen - empirisch - in zwei Hinsichten zweckmässigere Lösungen als statistische. Zum einen verlangen kybernetische Formulierungen, wie bereits erwähnt, gerade wegen ihrer relativen Datenunabhängigkeit und durch den Anspruch Daten statt Regressionen zu beschreiben noch mehr als statistische, eine genaue Festlegung dessen, was man eigentlich untersucht.Zum andern ist die Formulierung kybernetischer Hypothesen viel aufwendiger, und entsprechend weniger wird zuhanden nachfolgender Forschung unbedarftes Datenmaterial "verarbeitet". Zusammengefasst heisst das, dass sowohl statistische wie kybernetische Methoden, letztere meist effizienter, auf jene Probleme anwendbar sind, welche Lösungen besitzen, die potentiell alle Betroffenen befriedigen. Es sind dies technische Probleme.

   Nun, und damit gelangen wir zur zweiten und abschliessenden Bemerkung, die generellen Charakter hat, sind gerade in jüngerer Zeit viele technische Entscheidungen zu sozialen Problemen geworden. Dies hatte zur Folge, dass vermehrt auch Technologien, also Theorien der Technik sozialwissenschaftlich untersucht wurden (* Hier sei erneut auf die soziologischen Einwände gegen die sogenannten Weltmodelle verwiesen.) Dabei fand man vermeintlich technische Problemstellungen häufig einfach als Folgen von zu eingeschränkter Sicht, als im ganzen genommen, eben technokratische Probleme.

   Technokratische Problemformulierungen bestreiten ihre Interessengebundenheit keineswegs, im Gegenteil, sie verweigern Lösungen ausserhalb des durch sie definierten Systems.

   Wer also über gesellschaftliche Zwecksetzung verfügt, und das sind hier jene Produzenten, die über die Produktionsmittel verfügen, kann diese Zwecke setzen gerade indem er - technokratisch - technologische Probleme definiert.

   Gerade deshalb wird sich sozialwissenschaftliches Denken im engeren Sinne nie von formellen Lösungen überzeugen lassen.


Beispiel: Vekehrsstau am Walensee

Manchmal dauert die Reise (Zweck) von Chur nach Zürich (Ziel) acht oder mehr Stunden (Aufwand). Dann hat man das untrügliche Gefühl, etwas falsch gemacht zu haben, einen falschen Weg gewählt zu haben. Dabei wird man allerdings nicht ohne weiteres akzeptieren, dass man besser zu hause geblieben wäre. Wenn man die Reise auf ähnliche Weise (strukturell verwandt) wiederholen (reproduzieren) und dabei nicht der Kluge im Zuge sein will, wird man wohl in der Annahme, dass bestimmte sachliche Bedingungen existieren, welche auch den Aufwand der künftigen Reisen beeinflussen, die Verkehrsverhältnisse auf der entsprechenden Strasse genauer be(tr)achten.

   Man wird dafür, also für die Analyse der Verkehrsverhältnisse, von vielem absehen, einiges vergessen, anderes vorerst "kaltstellen". Dass die Strasse Walenseestrasse heisst, spielt gar keine Rolle, dass man in einem Mercedes sitzt und ob es regnet, ist mindestens vorerst unerheblich. Man sieht die Strasse als Leitung (als "bus"), die Autos, so verschieden sie auch sein mögen, als geleitete Einheiten.

   Und genau dann kann man mathematisch vorgehen, man kann zählen, messen, teilen. Man könnte das Ganze sogar zu hause auf der Modelleisenbahn spielen.

   Man wird Tatsachen feststellen und sie als Ursachen des Verkehrschaos denken. Sicher wird man sehen, dass es sehr viele Autos hat. Man mag auch sehen, dass ... meistens der Mann am Steuer sitzt, ... viele Ausländer im Verkehr sind, ... grosser Gegeneverkehr herrscht, ... usw. Man wird geistig probe-handeln und dabei intuitiv spüren, dass von alledem wohl nur die grosse Anzahl von Verkehrsteilnehmern, nicht aber deren Eigenschaften, ins Gewicht fallen, wobei Eigenschaften laut Ashby ohnehin häufig nur Namen für Verhaltensweisen sind. Allerdings wird man auch merken, dass wenn nicht so viele Deutsche unterwegs wären, dass dannn ..., nur das hilft nichts.

   Mit Hilfe der nicht nur die deutschen Mercedes antreibenden Polizisten mag man darauf kommen, es könnte statt an den Eigenschaften der Verkehrsteilnehmer an deren Verhaltensweisen liegen. Man könnte die Lückenverursacher als die Schuldigen entdecken. Man könnte empirisch feststellen, dass je mehr Lücken vorhanden sind, umso stärker die Stauungen werden. Das scheint statistisch eindeutig und erst noch beeinflussbar. Dass für einen Stau viele Autos nötig sind, ist trivial. Dass aber bei einer gegebenen Anzahl Autos der Stau von Lückenbildnern abhängt, ist Erkenntnis - scheinbar. Und wenn etwas scheinbar wahr ist, ist es einer genaueren Betrachtung häufig auf eine ganz bestimmte Weise wahr (*etwa die statistische Intervenierung). Da man ja das mit den Lücken in der Kolonne erst angesichts der winkenden Polizisten bemerkt hat, könnte man auch gleichzeitig bemerkt haben, dass das Winken nichts nützt. Entweder ist die ganze Erklärung "Lücken führen zu Stauungen" faul, beispielsweise nicht kausal, oder die Variable "Lückenbildung" ist doch nicht steuerbar. Oder man muss die Sache noch anders betrachten:

Man könnte bei der weiteren Betrachtung daran festhalten, dass die Autos als Autos gleichartig sind, wie wohl man den eigenen Mercedes nicht ohne weiteres gegen einen der vielen Volkswagen eintauschen würde, und sie weiterhin als abstrakte Verkehrsteilnehmer auffassen. Gleichwohl könnte man die Betrachtungsweise ändern und das, "was da jeweils an Sonntag Abenden passiert" bewusster daraufhin untersuchen, wie man "es" willentlich so einrichten könnte.

   Dabei helfen einem Analogien zu ganz anderen Dingen. Hier wo man die Lückenveränderungen bereits festgestellt hat, beispielsweise die im Zusammenhang viel zitierte Ziehharmonika (*oder Effekte wie Ebbe und Flut). Die eigenartige Bewegung des Blasbalges dieses Instrumentes entsteht ja nicht dadurch, dass einerseits laufend neue Teile hinzukommen, während auf der anderen Seite laufend einige verschwinden.

Man muss sich also, wenn man die Analogie ernst nimmt, auf einen bestimmten Ausschnitt der Strasse konzentrieren, und diesen, resp. die Bewegungen darauf, unabhängig von den jeweils neu hinzu kommenden Elementen betrachten. Bewegungen sind nicht Autos und nicht Lücken, sodern die Effekte von fahrenden Autos, also z.B. wachsende Lücken. In einer stehenden (statischen) Kolonne sind sie natürlich nicht sichtbar, sondern nur vorstellbar. Vor-stellen, sich die Sache vor das geistige Auge stellen, überwindet das Hängenbleiben am Unmittelbaren, Sichtbaren, wlches zur zählenden Statistik verleitet.

Man wird - sich vorstellend - feststellen, dass bei einer gegebenen Strassenstrecke höchstens so und so schnell gefahren werden kann. Man wird sich also nicht einfach irgendwelche Dinge, sondern empirisch prüfbare Tatbestände vergegenwärtigen. So wird man ausserdem finden, dass bei einer bestimmten Geschwindigkeit, hier beispielsweise bei 70 km/h, höchstens 30 Autos pro Minute passieren können, dass die Frequenz aber zusammen mit der Geschwindigkeit sinkt, dass sie beispielsweise auf höchstens 20 Durchfahrten bei 20 km/h fällt.

Nun können kurzzeitig mehr Autos als die relativ zur gefahrenen Geschwindigkeit zugelassenen in das betrachtete Strassenstück einfahren, gerade weil sie zu nahe aufschliessen, statt minimale Lücken zu belassen. Das zwingt die jeweils aktuell hintersten langsamer zu fahren, so dass bei gesunkener Geschwindigkeit noch weniger Autos in das entsprechende Strassenstück einfahren dürften, .. usw ..bis zum Stillstand der Kolonne.

Den Rest der Geschichte kann man sich selbst denken. Die Lösung (sie wurde 1980 in der NZZ veröffentlicht) besteht darin, in jedes kritische Strassenstück höchstens die maximale Kapazität einfahren zulassen, so das die relative Geschwindigkeit gehalten werden kann. Diese Regulierung kennt selbst wiederum Varianten: von Rotlichtphasen, die zusammen mit Verkehrszählerlichtschranken gewährleisten, dass jede volle Minute genau so und so viele Autos durchfahren, bis zur fliessenden Geschwindigkeitsregulierung in den kritischen Bereichen vorliegenden Strassenabschnitten. Das ist hier unerheblich.

Wesentlich ist hier lediglich, dass durch die Formalisierung ein bestimmtes - technisches - Problem konstituiert wird, das sich bei andern Massnahmen eventuell verflüchtigen würde.

Die Frage nämlich, inwiefern die gefundene Regelung noch Relevanz hätte, wenn man beispielsweise keine Mercedes passieren liesse, so wie man beispielsweise nicht alle Kategorien Arbeiter beschäftigt, sprengt das System, würde einer andern technokratischen Konzeption entsprechen. Es ist allerdings anzunehmen, dass sich damit nicht nur die Verkehrsstauungen am Walensee auflösen würden.