Ruprecht-Karls-Universität HeidelbergPsychologisches Institut
Siegel
Anschriften und Telefonnummern Volltext-Suche, E-Mail-Suche, Datenbank-Suche Alle Seiten im Überblick
leiste-bottom picture ATP

Personen > Joachim Funke > Kapitel aus Funke 1992 > Überblick

Überblick über computersimulierte Szenarien aus Untersuchungen zum Komplexen Problemlösen

Überblick über computersimulierte Szenarien aus Untersuchungen zum "Komplexen Problemlösen"

[geringfügig überarbeitete Version von Kapitel 2 aus Funke, J. (1992). Wissen über dynamische Systeme: Erwerb, Repräsentation und Anwendung. Berlin: Springer.]


1 Einführung

2 Bisherige Modelle und Befunde zum Umgang mit dynamischen Systemen


1 Einführung

Seit den 70er Jahren haben unter dem Titel "Komplexes Problemlösen" computersimulierte Szenarien verschiedenster Art Einzug in die kognitionspsychologisch orientierte Laborforschung gehalten. Damit sollen Prozesse untersuchbar gemacht werden, wie sie beim Umgang von Menschen mit komplizierten technischen Einrichtungen auftreten und häufig erst in ihrer negativen Form - in Form von menschlichem Versagen - der öffentlichkeit bekannt werden. Mit den simulierten Szenarien werden Problemtypen repräsentiert, die sich auszeichnen durch die Komplexität der Situation, ihrer Intransparenz, der Abhängigkeiten zwischen den beteiligten Einflußgrößen, der Eigendynamik des Systems und der polytelischen Struktur der Entscheidungssituation. Trotz aller Begeisterung über die Eröffnung eines neuen Phänomenbereichs, die sich u.a. in der Vielzahl der konstruierten Simulationssysteme niederschlägt, bleiben zentrale Probleme bislang ungelöst. Hierzu zählen das Theorie-Problem, verantwortlich für gelegentlich anzutreffende Schrotschüsse in der Datenerhebung, das Taxonomie-Problem, verantwortlich für die weitgehende Unverbundenheit der erzeugten Systeme und die geringe Vergleichbarkeit von Untersuchungen, sowie das Meßproblem, verantwortlich für die oftmals ungeklärte Reliabilität und Validität von ausgewählten Indikatoren (vgl. meine Bemerkungen zur Forschungsstrategie). Um das verwendete "Reizmaterial" in seiner allgemeinen Form verständlich zu machen, wird das Konzept eines dynamischen Systems aus Sicht der Systemtheorie dargelegt und unter dem Aspekt der Identifikation und Regelung behandelt.

2 Bisherige Modelle und Befunde zum Umgang mit dynamischen Systemen

Die Untersuchung des Umgangs von Menschen mit dynamischen Systemen begann keineswegs erst mit den Arbeiten von DöRNER. Bereits in den 50er Jahren wurde etwa von RAY (1955) der Begriff "complex problem solving" verwendet. Bereits damals interessierten die Modellvorstellungen, die etwa bei Fehlersuchprozessen handlungsleitend waren. Doch die Untersuchungen waren eher unsystematisch angelegte Beobachtungen oder aber auf wenig komplexe, in der Regel nicht dynamische Systeme bezogen. Dynamische Systeme wurden im Bereich der Tracking-Forschung eingesetzt (vgl. POULTON, 1973): Neben Untersuchungen zu Verfolgungsreaktionen auf einzelne Sprünge im zu verfolgenden Signal wurden derartige Reaktionen analysiert bei deterministischen wie nicht-deterministischen Mehrfachsprüngen, bei rampenförmigen Verläufen, wo nach einer Phase mit konstantem Signal eine zweite Phase mit linearem Anstieg folgt, oder auch bei sinusförmigen Verläufen regulärer wie nicht-regulärer Art. Das Steuern von Kraftfahrzeugen wie von Flugzeugen wurde allerdings nicht aus einer kognitionspsychologischen Sicht heraus untersucht, sondern aus der Sicht der Motorik: "Tracking is concerned with the execution of accurate movements at the correct time" (POULTON, 1973, p. 3).

Im Unterschied dazu spielt die Bewegungskomponente bei den hier angesprochenen dynamischen Systemen der Problemlöseforschung kaum eine Rolle: wesentlich wichtiger zur Bewältigung der gestellten Aufgaben und Probleme sind kognitive Prozesse, die auf der Aufnahme, Speicherung und Verarbeitung des semantischen Aspekts von Informationen beruhen. Dies steht im Gegensatz zu informationstheoretisch begründeten Studien, die den strukturellen Aspekt von Informationsverarbeitungsprozessen untersuchen. Diese unterschiedliche Akzentuierung von formalen bzw. inhaltlichen Gesichtspunkten spiegelt sich auch in der jeweiligen Verwendung solch zentraler Begriffe wie "Information" bzw. "Wissen" wider. Die Problemlöseforschung der Anfangszeit war jedenfalls stärker an formalen Aspekten interessiert (vgl. UECKERT, 1975), während seit einiger Zeit die semantisch reichen Problemstellungen in den Vordergrund geraten sind, wie dies etwa in Untersuchungen von Experten einer bestimmten Domäne sichtbar wird. Einige wenige Vorläuferstudien sollen zu Beginn dieses Kapitels erwähnt werden, bevor danach auf neuere Arbeiten zum Umgang mit dynamischen Systemen eingegangen wird.

2.1 Vorläuferstudien

Die Idee, Menschen nicht nur beim Bearbeiten von isolierten Teilaufgaben zu beobachten, sondern die Komplexität ihrer Problemlösungen durch komplexe Problemstellungen - auch im Labor - zu stimulieren, hat meines Wissens TODA (1962) bereits erstmals und deutlich formuliert:

"In the real world ... man's efficiency in coping with his environment depends not on how well he performs isolated tasks, but on how well he can co-ordinate several different functions in order to solve the problems of daily life. One way to study man as a problem-solver is to construct an artificial environment and examine the strategies used by human subjects in order to survive in this environment." (p. 164).

TODA schlägt vor, experimentelle Ein-Personen-Spiele im Sinne von "microcosms" zu schaffen, um mit diesem methodischen Zugang das menschliche Problemlöseverhalten untersuchen zu können. Diesem Zugang haben sich seitdem eine Reihe von Forschern angeschlossen.

In einer wenig beachteten Arbeit hat KLEITER (1970) ein einfaches dynamisches System eingesetzt und seine Pbn in die Rolle eines Händlers versetzt, der ein Produkt lagert, welches verdirbt, wenn es nicht bis zum Ende der Lagerzeit verkauft wurde. Die Formel, nach der die Eingabevariable "Lagermenge" (a) mit der Ausgabevariable "Nachfrage" (z) und einer Zufallskomponente (e) verknüpft wurde, lautet:

zt+1 = 0.25 . (at - zt) + zt + e. (2.1)

Mit jeder verkauften Einheit wächst der Gewinn, nicht verkaufte Einheiten mindern ihn. Der Startbestand liegt bei 500. Es soll Gewinn erzielt werden. In einer "Optimismus"-Variante wuchs die Nachfrage gemäß obiger Formel, wenn mehr als im Vortakt gelagert wurde; in einer "Pessimismus"-Variante wuchs die Nachfrage bei gesunkener Lagermenge. Insgesamt 40 Pbn bearbeiteten diese Problemstellung für 50 Takte, davon 23 unter der Optimismus-Bedingung.

Die Ergebnisse zeigen ein weitgehendes Versagen der Pbn unter der Pessimismus-Bedingung. Selbst unter der Optimismus-Bedingung gelang nur eine statische Kontrolle, aber kein Anstieg. KLEITER erwartete, daß die Pbn zu Beginn eine Entdeckungsphase durchlaufen, bevor sie dann in eine Optimierungsphase zur Verbesserung ihrer Strategien treten würden: "Only a few Ss reached this second phase."

In einer späteren Übersichtsarbeit macht KLEITER (1974) auf Ansätze der dynamischen Entscheidungstheorie aufmerksam, deren Hilfsmittel für die Erforschung von mehrstufigen Entscheidungsproblemen herangezogen werden sollten. Er zitiert Arbeiten aus den frühen sechziger Jahren, in denen bereits dynamische Entscheidungssituationen in psychologischen Experimenten realisiert wurden. Neben klassischen Lagerhaltungsproblemen, für die es normative Modelle gibt, schildert KLEITER (1974, p. 107) auch ein Markoff'sches Entscheidungsproblem, das als "Taxibetrieb" eingekleidet ist. Der Pb ist hierbei ein Taxichauffeur, der drei Städte A, B und C befährt. In jeder Stadt gibt es drei Standorte (Busstation, Bahnhof, Flughafen) mit festgelegten (aber vom Pb zu entdeckenden) übergangswahrscheinlichkeiten, die den Übergang zu einem der verbleibenden acht Standorte regeln. Ziel ist es, den Gewinn zu steigern, der für die verschiedenen Fahrtziele festgelegt ist. Wenngleich die untersuchten 18 Pbn mit je 180 Spielrunden Schwierigkeiten hatten, die übergangsmatrix korrekt zu schätzen, konnte für 15 dieser 18 Pbn eine Strategie identifiziert werden, die den durchschnittlich erwarteten Gewinn nach Spielen vieler Runden maximiert. Drei andere hypothetische Strategien (kurzsichtige Maximierung des Momentan-Gewinns; Minimax-Strategie; "minimax regret") konnten entsprechend selten bzw. gar nicht beobachtet werden. Die Idee einer systematischen Systemkonstruktion bzw. -variation, die der vorliegenden Arbeit zugrundeliegt, ist ebenfalls nicht neu. BREWER (1975) beschreibt eine Monte-Carlo-Studie, in der er - ausgehend vom Multiplikator-Akzelerator-Modell nach SAMUELSON (1939) - die Komplexität des Modells sukzessive erhöht. Die beiden dazu von ihm eingeschlagenen Wege, (1) Hinzufügung neuer Elemente (sowohl weitere Variablen als auch - bei konstant gehaltener Variablenzahl - weitere Parameter) und (2) Erhöhung "sektoraler Disaggregation" (Aufsplittung eines Bereichs in mehrere unabhängige Teilsysteme), bewertet er im übrigen dahingehend, daß dem Hinzufügen neuer Elemente die weitaus wichtigere Bedeutung zukommt. Daß BREWER hierunter eben nicht in erster Linie die Erhöhung der Variablenzahl versteht, macht folgendes Zitat deutlich: "Perhaps the most dramatic increases in analytic size (dies entspricht der Komplexität, J.F.) come in the addition of connections between elements, and/or in altering their specified relationships." (BREWER, 1975, p. 182). Unter der änderung einer Relation versteht er im übrigen Manipulationen am "degree of reciprocity", also der Beziehung, die wir als wechselseitige Abhängigkeit bezeichnen würden. Die Bedeutung der Variablen charakterisiert er meines Erachtens treffend dadurch, daß er bei steigender Variablenzahl die Möglichkeit wachsender Komplexität gegeben sieht, aber selbstverständlich keinen zwingenden Zusammenhang erwartet (p. 193).

Unsicherheit in formalen Systemen lokalisiert BREWER (1975, p. 183) an zwei Stellen: (1) Unsicherheit, die in der Spezifikation des Modells als Fehler explizit enthalten ist, und (2) Unsicherheit infolge von Meßfehlern. Während (1) den stochastischen Charakter des Simulationsmodells betrifft, handelt es sich bei (2) um Fehler, die unabhängig vom spezifizierten Modell bei der Feststellung von Variablen-Ausprägungen auftreten. BREWER (1975, p. 181) nennt verschiedene Eigenschaften komplexer Systeme, die sehr an diejenigen erinnern, die in psychologischen Arbeiten über dieses Thema auftauchen, so z.B. "number of elements" (Anzahl beteiligter Variablen), "forms of relationships" (Art der Vernetzung), "degrees of interconnection" (Vernetztheit), "rates of change" (Dynamik bzw. Eigendynamik) sowie "uncertainty" (Unsicherheit bzw. Intransparenz). Daß Menschen mit komplexen Systemen nicht gut umgehen können, ist für ihn selbstverständlich:

"Man's limited intellectual apparatus ... prompts him to seek simple ordered regularity. His images are poor proxies for behavioral reality. His analyses frequently reflect these defective images; unfortunately so too do his policies." (p. 193).

Diese früh geäußerten Vorstellungen zur systematischen Systemkonstruktion von Brewer finden ihren aktuellen Niederschlag in Forderungen etwa von MACKINNON und WEARING (1985) oder auch von HüBNER (1989).

Ein weiterer Vorläufer ist METLAY (1975). Er wählt das Verfahren der Computersimulation, um bestimmte Eigenschaften komplexer Systeme genauer untersuchen zu können. Folgende Prämissen legt er seiner Arbeit zugrunde: (1) ein System kann in Form eines simultanen Gleichungssystems beschrieben werden; (2) es liegt komplettes Wissen über Ursache-Wirkungs-Zusammenhänge in diesem System vor; (3) die beschriebenen Systemzusammenhänge bleiben über die Zeit hinweg stabil und es kommen keine weiteren Variablen hinzu; (4) die Abhängigkeiten lassen sich in linearer Form darstellen; (5) es gibt keine gleichzeitige Kausation, d.h. eine Ursache ist einer Wirkung immer zeitlich vorgeordnet, die Wirkung tritt nicht gleichzeitig ein.

Hiervon ausgehend konstruiert er für eine erste Untersuchung sechs verschiedene Varianten eines Systems mit zehn Variablen, die sich durch unterschiedliche Vernetzungsgrade zwischen den Variablen auszeichnen. Ausgangspunkt dieser Variation ist die Überlegung, wie sich unterschiedliche Grade von Fehlspezifikationen - die Abweichungen betragen 1, 2, 4, 8 bzw. 16 Prozent der Konnektionen - eines (bekannten) Modells auswirken. Die erste der sechs Varianten bildet das Ausgangsmodells, von dem die übrigen fünf Varianten nun zunehmend abweichen. Für alle sechs Varianten sind die Strukturgleichungen angegeben. Die Konnektivitätsmatrizen (Q-Matrizen; jede Zelle dieser quadratischen Matrizen erhält dort eine Eins, wo zwei Variablen in Zusammenhang miteinander stehen, ansonsten eine Null) dieser sechs Systeme werden nun dazu herangezogen, die zeitliche Entwicklung der Systeme zu vergleichen. Zu diesem Zweck werden die Q-Matrizen schrittweise potenziert, jede Potenzierung spiegelt die Auswirkungen der Abhängigkeiten zwischen den Systemvariablen wider z.B. durch die Anzahl der Nullzellen in den Matrizen. Sind zum Zeitpunkt t=0 noch viele Nullzellen vorhanden, verschwinden diese bei stark vernetzten Systemen schon nach wenigen Potenzierungen (bei drei der sechs Varianten sind nach vier Takten bereits alle Zelleinträge ungleich Null). Daraus wird deutlich, daß geringe Fehler sich erst über längere Zeitstrecken bemerkbar machen, stärkere dagegen bereits in allerkürzester Zeit.

In einer zweiten von METLAY (1975) berichteten Untersuchung konstruiert der Autor ein System mit 15 Variablen, das aus drei dekomponierbaren Teilen besteht (vgl. die ähnlichkeit zu den von KLUWE verwendeten Systemen SIM00X). Auch hiervon wurden wieder sechs Varianten - ein Ausgangsmodell und fünf Fehler-Modelle - erzeugt. Daran lassen sich die geschilderten Effekte erneut demonstrieren. Sein pessimistischer Schluß (bezogen auf die Komplexität sozialer Systeme):

"We could argue that in the face of having to act, our intuition may be our best guide. In such an instance our only guarantor may be faith, a belief, often contradicted by history, in our innate ability to choose correctly. We have to resort to 'faith', to the same kind of courageous fatalism which JAMES counseled: Be strong and of good courage. Act for the best, hope for the best, and take what comes ...." (METLAY, 1975, p. 250).

Der JAMES'sche couragierte Fatalismus könnte geradezu die Leitlinie eines erfolgreichen Bürgermeisters von LOHHAUSEN sein - oder ist dies nicht "Selbstsicherheit"? Auch die von DöRNER (1989b) geforderte Verwendung von Intuition und dem "gesunden" Alltagsverstand ist hier bereits angelegt, allerdings mit deutlich anderer Bewertung ...

Zusammenfassend kann aus dieser Erinnerung an Vorläuferarbeiten festgehalten werden: Problemlöseforscher haben bereits in den 60er und 70er Jahren Komplexität ins psychologische Labor geholt, indem sie mit simulierten Szenarien arbeiteten. Auch der Gedanke an systematische Vorgehensweisen bei der Konstruktion von Systemen ist damals schon diskutiert worden.

2.2 Dynamische Systeme in nationaler Forschung

Nachfolgend wird eine Übersicht über aktuelle Arbeiten zum Thema "Umgang mit dynamischen Systemen" gegeben. Hierbei wird zunächst im vorliegenden Teilkapitel 2.2 auf die deutschsprachigen Arbeiten einzugehen sein, bevor dann in Teilkapitel 2.3 über Forschungsergebnisse auf internationaler Ebene berichtet wird. Diese Art der Gliederung trägt der Tatsache Rechnung, daß sich an verschiedenen Orten jeweils Traditionen ausgebildet haben, die über längere Zeit hinweg und von verschiedenen Forschern in jeweils homogener Form verfolgt werden.

2.2.1 Arbeiten der Bamberger Arbeitsgruppe (DöRNER)

Die Arbeiten der Bamberger Arbeitsgruppe um Dietrich DöRNER sind die wohl bekanntesten auf diesem Feld. Sowohl die frühen Studien (z.B. DöRNER & REITHER, 1978) als auch die häufig zitierte LOHHAUSEN-Studie (vgl. DöRNER, KREUZIG, REITHER & STäUDEL, 1983) sollen hier allerdings nicht nochmals referiert werden (vgl. deren Darstellung z.B. bei FUNKE, 1988, oder bei HUSSY, 1984). Einzugehen ist auf neuere Arbeiten wie die KüHLHAUS-Studie (REICHERT & DöRNER, 1988), auf die in seiner Monographie (DöRNER, 1989b) berichteten Überlegungen und auf die allgemeinen Rahmenvorstellungen (DöRNER, SCHAUB, STäUDEL & STROHSCHNEIDER, 1988).

Beim KüHLHAUS-System von REICHERT und DöRNER (1988) müssen Pbn mittels eines Steuerhebels (u) die Temperatur des Lagers (r) auf eine vorgegebene Größe einregeln, wobei noch die Außentemperatur (s) und ein Verzögerungsfaktor (v) von Bedeutung sind. Das System folgt zwei Gleichungen (vgl. REICHERT, 1986):

rt = rt-1 + (st - rt-1) . 0.1 - qt-1, (2.2)

qt = (rt-v - ut) . 0.3. (2.3)

In ihrer Untersuchung hatten 54 studentische Pbn Gelegenheit zu je 100 Eingriffen. Ihnen wurde mitgeteilt, daß die automatische Temperaturregelung defekt und menschliche Kontrolle notwendig sei, um die Lebensmittel vor dem Verderben zu schützen. Nur ca. 20% der Pbn waren erfolgreich. Die Hauptschwierigkeit für die Pbn resultierte aus der Zeitverzögerung der nichtlinearen Funktion, die die Eingaben des Pbn mit der Systemreaktion verknüpft. Nur wenige Pbn erkannten diese Verzögerung und planten vorausschauend, während andere Pbn ihre Eingriffe vom unmittelbar vorangegangenen Feedback abhängig machten. Unter den als guten Problemlösern qualifizierten Pbn gab es Fälle, wo trotz erfolgreicher Steuerung keine Verbalisierung der benutzten Regeln möglich war.

REICHERT und DöRNER entwickelten für das KüHLHAUS eine "Simulation der Simulation", d.h. ein psychologisches Modell, das den Umgang mit dem Simulationssystem beschreibt und dessen Verhalten von demjenigen realer Pbn kaum zu unterscheiden war. Dies ist allerdings eine Frage der Kriterien, die angelegt werden. Meines Erachtens ist mit diesem Vorgehen noch nicht viel gewonnen: Das Kriterium der empirischen Adäquatheit ist eine Variante des "protocol-trace"-Vergleichs - für eine experimentell arbeitende Wissenschaft ein m.E. zu schwaches Kriterium.

Die bisherigen Untersuchungen dieser Arbeitsgruppe haben zur Aufdeckung einer Liste typischer "Verhaltensdefizienzen" beim Umgang mit komplexeren Systemen geführt. Hierzu gehören: (1) Fehler bei der Ausarbeitung und Anwendung von Operationen ("Entscheidungsverhalten"), (2) Fehler bei der Organisation der Behandlung einzelner Teilprobleme ("Selbstorganisation"), (3) Fehler bei der Konstruktion des internen Modells des in Frage stehenden Realitätsbereiches ("Hypothesenbildung") sowie (4) Fehler beim Umgang mit Zielen ("Zielbehandlung"). Die in diesen Fehlern sichtbare "Logik des Mißlingens" entsteht durch das Zusammenspiel kognitiver und emotional-motivationaler Prozesse.

Abb. 2.1: Veranschaulichung der Prozeduren (doppelt umrandet) und Strukturen (einfach umrandet) des Handlungsregulationsmodells (aus DöRNER et al., 1988, p. 223).

Ziel der Bamberger Arbeitsgruppe ist jedoch nicht ein Aufzeigen dieses Versagens von Menschen beim Umgang mit komplexen Systemen, sondern "vielmehr die Erforschung der Regelmäßigkeiten und Gesetze im Zusammenhang der verschiedenen kognitiven, emotionalen und motivationalen Prozesse, die wir bei unseren Vpn beobachten können." (DöRNER et al., 1988, p. 219). In einer neueren Arbeit legen DöRNER, SCHAUB, STäUDEL und STROHSCHNEIDER (1988) ihre Vorstellungen über die allgemeine Struktur eines handlungsregulierenden Systems dar, genauer gesagt die "constraints", denen dieses System unterworfen ist.

Ausgangspunkt der Rahmenvorstellungen sind Architektur-Fragen: die unterstellte Gedächtnisstruktur "muß" als "Tripel-Netzwerk" aufgebaut sein, das aus drei "netzwerkartig-verschachtelten Hierarchien" (sensorisch, motorisch, motivatorisch) besteht. Diese drei Netzwerke stehen natürlich nicht isoliert nebeneinander, sondern sind untereinander verbunden. Neben dieser Netzwerk-Annahme betrifft eine zweite Grundannahme das Konzept der Absicht. Absichten bilden die zentralen Einheiten der Analyse von Handlungsregulationsprozessen; sie stellen eine Bündelung von Elementen der drei verschiedenen Netzwerke dar, eine "zeitweilige Strukturierung von Gedächtnisinhalten". Einzelnen Absichten sind verschiedene Eigenschaften zugeordnet (z.B. Geschichte, Wichtigkeit, Zeitperspektive, Zeitbedarf, Erfolgswahrscheinlichkeit, Kompetenz).

Abb. 2.2: Die interne Struktur von PROMINT als Flußdiagramm (aus DöRNER et al., 1988, p. 225).

Unterschieden werden im Modell der Handlungsregulation Prozeßinstanzen ("Prozeduren") und Datenstrukturen ("Speicher"). Die verschiedenen Instanzen und Strukturen sind der Abb. 2.1 (S. 36) zu entnehmen. GENINT ("generate intentions") ist für die Bildung von Absichten verantwortlich, die unter Berücksichtigung der augenblicklichen Gesamtsituation einen Mangelzustand beseitigen sollen. SELECTINT ("select intention") wählt aus der Vielzahl möglicher Absichten eine "aktuelle" aus, wobei dieser Auswahlmechanismus "sehr kompliziert" ist und darüber hinaus durch laterale Inhibition eine herrschende Absicht vor allzu leichter Verdrängung schützt. PROMINT ("promote intention") ist "quasi das kognitive 'Herzstück'" der Theorie und behandelt die ausgewählten Absichten. Die interne Struktur dieser Instanz ist in Abb. 2.2 (S. 37) wiedergegeben, die im übrigen der bei DöRNER (1976, p. 48) dargestellten Organisation der heuristischen Struktur ähnelt.

Liegen für eine Situation bereits fertig gespeicherte Handlungsvollzüge vor, können diese automatisch abgearbeitet werden, andernfalls kommen die höheren kognitiven Prozesse ins Spiel, als da wären "interpolatives Planen" und "synthetisches Planen". Bei Mißerfolg ist das System zu Selbstreflexion fähig (vgl. Abb. 12 in DöRNER, 1976, p. 48).

Abb. 2.3: Die von den Instanzen erzeugten Parameter, die emotionale Signale darstellen (aus DöRNER et al., 1988, p. 229).

HYPERCEPT ("hypothesengeleitete Perzeption") ist "quasi der Wahrnehmungsapparat des Systems", der für die räumliche und zeitliche Orientierung zuständig ist. Sein Kern "besteht nun aber darin, daß, ausgehend von einem bestimmten Fixationsort, die Umgebung abgetastet wird. Die dort entdeckten Objekte werden identifiziert und ihre Konstellation im Raum festgestellt. Das Ergebnis dieses Prozesses wird als ephemere Gedächtnisstruktur ... abgelegt." (p. 226). Automatisch (!) wird ein "Protokollgedächtnis" angelegt, aus dem sich der "Erwartungshorizont" des Systems ableitet. Abweichungen zwischen erwartetem und aktuellem Umgebungszustand führen zum Erleben bestimmter Emotionen (Staunen, Schreck, Angst, Furcht und Hoffnung). Gleiches gilt für die Menge der Absichten, die den "Gesamtabsichtsdruck", den "motivationalen Dampf" des Systems ausmacht. Abb. 2.3 veranschaulicht die für die Entstehung von Emotionen wichtigen Abläufe des Systems.

In diesem System sind Teufelskreise beschreibbar, so etwa zwischen SELECTINT und PROMINT: bei hohem Zeitdruck sinkt die Kompetenz, wodurch die Absichtsgewichte verändert werden und daher neue Absichtsauswahlen entstehen, usw.

Wie ist nun diese Modellvorstellung, die hier nur kurz dargelegt werden konnte, zu bewerten? Handelt es sich um eine Theorie, die Phänomene erklärt und die Ableitungen erlaubt? Was ist zu der mentalistischen Begrifflichkeit zu sagen, etwa zur Kontamination von Handlungs- und Systemkonzepten (vgl. HERRMANN, 1982)? Die mentalistische Begrifflichkeit wird von den Autoren selbst thematisiert:

"Wir haben hier informationelle Parameter mit Namen wie 'Furcht /Hoffnung', 'Unbestimmtheit', 'motivationaler Dampf', etc. belegt. Diese Parameter sind berechenbare Größen, die die Arbeit des Systems steuern und modifizieren. Wir halten unsere mentalistische Namensgebung aber deshalb für berechtigt, weil wir annehmen, daß das subjektive Wahrnehmen dieser Parameter und ihrer Veränderungen in der Zeit durch Menschen die Qualität emotionalen Erlebens hat." (DöRNER et al., 1988, p. 231). Diese Bemerkungen können nicht darüber hinwegtäuschen, daß mit der gewählten Begrifflichkeit ein "surplus meaning" verbunden ist, das psychologischen Gehalt suggeriert. Das Anliegen der Arbeitsgruppe - Implementation der Theorie auf einen Rechner - ist begrüßenswert, umso fragwürdiger ist es aber, die dort erreichbare Präzision durch umgangssprachliche Etikettierungen zu verwischen.

Damit kommen wir zu einem anderen Aspekt der Bewertung: erklärt die Theorie Phänomene, erlaubt sie Ableitungen? In der vorgelegten Form lautet die Antwort: nein! Um dieses "nein" besser zu begründen, habe ich aus der zitierten Arbeit einmal gesetzesmäßige Aussagen ("... unser Hauptziel ist ... die Erforschung der Regelmäßigkeiten und Gesetze ...", p. 219) gesammelt. Hier ein Ausschnitt:

(G1) Wenn ein sensorisches Schema aktiv ist, dann kann ein motorisches Aktionsprogramm aktiviert werden (p. 220; jedoch auch ohne sensorische Schemata ist motorische Aktivation denkbar, p. 221).

(G2) Wenn ein Ereignis stattfindet, welches einen Mangelzustand beendet, dann ist der Zielzustand erreicht (p. 221; die Aussage ist im Text genau umgekehrt formuliert: ist der Zielzustand erreicht, müßte ein Ereignis stattgefunden haben, welches ...).

(G3) Je drängender ein zugrundeliegender Mangelzustand, desto wichtiger die damit verbundene Absicht (p. 222).

(G4) Wenn für einen Mangelzustand mehrere möglichen Zielzustände existieren, dann wird derjenige gewählt, der am leichtesten erreichbar ist (p. 224).

(G5) Je höher die epistemische Kompetenz, desto genauere Kompetenzeinschätzungen und desto zuverlässigere Zeitschätzungen erfolgen (p. 224).

(G6) Wenn Erwartungshorizont und Umgebungsbild nicht passen, dann werden Emotionen ausgelöst (p. 227).

(G7) Je häufiger SELECTINT Absichten neu rangieren und auswählen muß, desto labiler und sprunghafter wird die Arbeit des gesamten Systems (p. 229).

(G8) Je mehr Absichten sich in der Zeit drängen, desto stärker wird der Zeitdruck für das System (p. 230).

(G9) Je besser die Qualität des Datenmaterials, desto besser die Qualität der Absichtsbehandlung (p. 230).

(G10) Je besser die Qualität der Absichtsbehandlung, desto besser die Qualität des Datenmaterials (p. 230).

Die zehn ausgewählten Gesetzmäßigkeiten erweisen sich zum Teil als sehr schwache Aussagen (z.B. läßt das "kann" bei G1 viel zu), zum Teil als Definitionen (z.B. G8), zum Teil als schlichte Korrelationsaussagen (z.B. G9 und G10), zum Teil implizieren sie einfach die Rationalität des Systems (z.B. G4). Zu dieser Art von Aussagen finden sich kritische Anmerkungen etwa bei BRANDTSTäDTER (1982), aber auch bei HOLZKAMP (1986).

Natürlich gibt es weitere Fragen, die sich bei Betrachtung dieses Modells stellen. Um die formulierten Gesetzesaussagen zu empirisch gehaltvollen Sätzen zu machen, muß z.B. die Indikatorproblematik behandelt werden. Dazu ist zu klären, wie etwa Größen wie "Erwartungshorizont", "Umgebungsbild", "Qualität der Absichtsbehandlung" empirisch erfaßt werden können. Für das Kompetenzkonstrukt z.B. (vgl. Aussage G5) hat STäUDEL (1988) einen Fragebogen vorgestellt, von dem allerdings nicht zu erwarten ist, daß er die höchst flüchtigen Prozesse (die ja wohl als state-Variablen zu verstehen sind) verläßlich einfangen kann. Dies ist zugleich ein Hinweis darauf, daß die Implementationen der Modellvorstellungen auf einem Rechner nicht reicht, um aus den Vorstellungen eine Theorie über empirische Sachverhalte zu machen: damit kann allenfalls die logische Struktur der Aussagen - ihre Widerspruchsfreiheit - überprüft und zugleich das dynamische Verhalten dieser aufeinander bezogenen und zeitlich voneinander abhängigen Aussagen demonstriert werden, aber nicht mehr. Die empirische Prüfung wird durch das Vorlegen eines Simulationsmodells nicht suspendiert (vgl. KAISER & KELLER, 1991).

Ein letzter Kritikpunkt zu diesem Modell bezieht sich auf die Art der Modellbildung: soweit erkennbar, handelt es sich um ein eher mathematisch-numerisches Variablenmodell (einzelne formale Parameter in Gleichungen nehmen irgendwelche Werte an) im Unterschied zu "echten" Computersimulationsmodellen, die nicht mit kontinuierlichen Zahlen, sondern mit Bedeutungen operieren. LüER und SPADA (1990, Kap. 3.2.3) sehen die erstgenannte Vorgehensweise als zu wenig flexibel an, da bei ihr die Modellierung von Lernmechanismen (im Sinne der Übertragung auf unterschiedliche inhaltliche Bereiche) fehle, wie sie in adaptiven, sich selbst modifizierenden Produktionssystemen etwa abgebildet werden könnte, die sich die Simulationsmodelle der zweiten Phase nutzbar machen. Daß diese von LüER und SPADA bevorzugte Vorgehensweise jedoch auch Grenzen hat, wird beim Blick auf die empirische Überprüfung deutlich.

2.2.2 Arbeiten der Bayreuther Arbeitsgruppe (PUTZ-OSTERLOH)

PUTZ-OSTERLOH (1987) interessiert die Frage, inwiefern Expertise den Umgang mit intransparenten Problemen verbessert. Zu diesem Zweck untersuchte sie vergleichend 7 Professoren der Wirtschaftswissenschaften mit 30 unausgewählten Studenten. Beide Gruppen bearbeiteten zunächst für 15 simulierte Zeittakte das System SCHNEIDERWERKSTATT - ein kleiner, frühkapitalistischer Betrieb, der Hemden produziert und verkauft - mit drei vorgegebenen Zielgrößen (hohes Endkapital, hohe Takt-Gewinne, hoher Lohn; "ökonomisch orientiertes System"), danach für 20 Takte das System MORO - ein Entwicklungshilfe-Szenario - mit fünf vorgegebenen Zielgrößen (große Weidefläche, hohe Rinderzahl, viele Moros, viel Grundwasser, viel Kapital; "ökologisch orientiertes System"). Das Problemlöseverhalten wird auf drei Ebenen analysiert: (1) auf der höchsten Ebene geht es um Verhaltenseffekte, die sich in unterschiedlichen Ausprägungen der Gütekriterien niederschlagen; (2) auf der mittleren Ebene geht es um (verbalisierte) bereichsübergreifende Strategien; (3) die unterste Ebene bezieht sich auf bereichsspezifische Unterschiede in der Systemrepräsentation, Unterschiede im Systemwissen also. PUTZ-OSTERLOH erwartete für die Experten in der SCHNEIDERWERKSTATT eine überlegenheit gegenüber der Vergleichsgruppe auf allen drei Ebenen, bei der MORO-Simulation dagegen nur auf den oberen beiden Ebenen. In die Datenanalyse gingen jeweils die ersten sechs Takte ein. Für die Eingriffsqualität (Ebene 1) wurden Ränge vergeben (bei MORO nach einem komplizierten Beurteilungsverfahren). Hinsichtlich bereichsübergreifender Strategien (Ebene 2) dienten Kategorisierungen von Daten des lauten Denkens (Informationssammlung, Hypothesenbildung, Analysen, Planungen, Entscheidungen, Zielnennungen) als Indikatoren. Das Systemwissen (Ebene 3) wurde ebenfalls aus Daten des lauten Denkens extrahiert, indem ausgezählt wurde, wie häufig welche Systemvariable isoliert bzw. in Verbindung mit anderen Variablen erwähnt wurde.

Die Ergebnisse weisen die Wirtschaftsprofessoren bei der Bearbeitung der SCHNEIDERWERKSTATT hinsichtlich aller drei Ebenen als erfolgreicher aus. Bei der Simulation MORO dagegen gilt dieser Befund nicht: Auf Ebene 1 (Qualität) zeigt sich kein systematischer Unterschied, auf Ebene 2 (Strategien) verbalisieren Experten mehr Analysen richtiger Beziehungen, richtige Hypothesen, richtige Planungen, Ziele und positive Reflexionen über das eigene Vorgehen. Keinen Unterschied findet man hinsichtlich Informationssammlung. Auf Ebene 3 zeigt sich, daß Experten bei der MORO-Bearbeitung mehr Beziehungen zwischen den Systemvariablen eruieren (und entsprechend auch mehr richtige Beziehungen entdecken). Diese Befunde wertet PUTZ-OSTERLOH (1987, p. 80) dahingehend, daß Experten sich von Nichtexperten nicht durch die Menge eingeholter Daten unterscheiden, sondern durch die Art deren Verarbeitung: Experten erzeugen mehr richtige Hypothesen, analysieren häufiger (und richtig) die Verknüpfungen zwischen den Variablen und planen ihre Entscheidungen häufiger (und richtig). - Kritisch anzumerken bleibt:

(1) Die Operationalisierung von Expertise via Professur in Wirtschaftswissenschaft. In aller Regel hat man es hier nicht mit Praktikern, sondern mit Theoretikern betriebs- und volkswirtschaftlichen Handelns zu tun. Zu überlegen wäre, ob hier nicht Manager von kleinen Unternehmen die angemessenere Vergleichsgruppe wären. Auffällig ist ja, daß etwa die Menge verbalisierter Lösungsprozesse generell in dieser Gruppe höher ausfällt.

(2) Die Operationalisierung von Nicht-Expertise über das Merkmal "Student". Die zum Vergleich herangezogene Studentengruppe ist im Schnitt 22 Jahre alt gewesen (Professoren-Mittel: 45 Jahre). Allein durch diesen hohen Altersunterschied können derartig viele Faktoren mit der Expertise bzw. Nicht-Expertise verknüpft sein, daß schon dadurch die Interpretation von Expertise im Sinne eines Vorteils fachspezifischen Wissens fraglich wird.

(3) Bei beiden Stichproben wäre es wünschenswert gewesen, im vorhinein einen Indikator für die Menge und Qualität des jeweils bereichsspezifischen Wissens über die einschlägigen ökonomischen bzw. ökologischen Problemfelder zu besitzen.

(4) Der geringe Stichprobenumfang bei der Expertengruppe schafft angesichts der bekannten hohen interindividuellen Variabilität weitere Interpretationsprobleme insbesondere dort, wo erwartete Unterschiede ausbleiben (z.B. MORO-Erfolg).

(5) Die Bestimmung von Qualitätswerten für das MORO-Szenario macht erneut die Problematik unbekannter Reliabilitäten und Validitäten der ausgewählten Indikatoren deutlich. So wird etwa die Grundwasserausbeutung nur zeitverzögert im System eintreten (vgl. STäUDEL, 1987, p. 111f.). Bei nur sechs ausgewerteten Takten mag dies genauso zu Fehleinschätzungen führen wie die von den Pbn erwartete Steigerung der Moros, die rasch zur Hungerkatastrophe führen kann.

(6) In den Hypothesen wurde vorhergesagt, nur bei der MORO-Bearbeitung gäbe es auf der Ebene bereichsspezifischen Wissens keinen Unterschied zwischen Experten und Nichtexperten - ansonsten sollten Experten immer überlegen sein. Genau dies ist nicht eingetreten: die Experten auf dem Gebiet der Wirtschaftswissenschaft besaßen für das Entwicklungshilfe-Szenario MORO mehr bereichsspezifisches Wissen als die Nichtexperten. Auf diesen Befund geht die Diskussion sowenig ein wie auf den interessanten Befund, wonach bei MORO erhöhtes Wissen nicht mit erhöhter Problemlösequalität einhergeht.

In einer Folgestudie untersuchten PUTZ-OSTERLOH und LEMME (1987) die Generalisierbarkeit der oben berichteten Befunde. Zu diesem Zweck wiederholten sie die Untersuchung mit 28 unselegierten Studenten (=studentische Nichtexperten) und 24 Studenten bzw. Promovenden der Wirtschaftswissenschaften (=studentische Experten). Die Abfolge der Bearbeitung war diesmal umgekehrt: zuerst MORO, dann SCHNEIDERWERKSTATT. Diesmal waren die Experten bei der Bearbeitung von MORO und SCHNEIDERWERKSTATT erfolgreicher als die Nichtexperten, allerdings zeigten sich keine strategischen Unterschiede mehr. Dafür konnten Nichtexperten von Transfer-Effekten profitieren: die MORO-Erfahrung verbesserte die Qualität der betriebswirtschaftlichen Simulationsergebnisse, nicht jedoch umgekehrt.

2.2.3 Arbeiten der Hamburger Arbeitsgruppe (KLUWE)

Die Befunde zum komplexen Problemlösen aus der Bamberger Arbeitsgruppe wurden von der Hamburger Arbeitsgruppe um Rainer KLUWE aufgegriffen und kritisch beleuchtet. Bereits in einer frühen Arbeit (KLUWE & REIMANN, 1983) zeigt sich die Absicht, Systeme zu konstruieren, die der experimentellen Manipulation zugänglich sind. Das damals vorgestellte abstrakte System SIM002 enthält bereits wesentliche Merkmale der später fortentwickelten Systeme: es ist mathematisch präzise beschreibbar; es schließt Vorwissenseinflüsse aus; es erlaubt Manipulationen an kritischen Systemgrößen (Konnektivität, Eigendynamik). Da es "nur" über 10 Variablen verfügt, werden die Variablenzustände auf dem Monitor als Histogramme angezeigt, Pbn können interaktiv und selbständig Eingriffe in das System tätigen. Ziel der Pbn ist es, angezeigte Zielzustände der Variablen zu erreichen; als Gütemaß dient die Differenz zwischen aktuellem Zustand und vorgegebenem Zielzustand. In neueren Arbeiten (KLUWE et al., 1986) wird das System SIM005 bzw. SIM006 verwendet, bei dem 15 Variablen insgesamt drei verschieden unabhängige Teilsysteme mit jeweils verschiedenen Eigenschaften konstituieren. Zu verschiedenen Zeitpunkten sollen Pbn während der Systembearbeitung vergangene Zustände reproduzieren bzw. zukünftige Zustände vorhersagen.

Tabelle 2.1 zeigt die Vernetzung des Systems SIM005, wie es etwa von KLUWE, MISIAK & RINGELBAND (1985) zur Untersuchung von Wissenserwerbsprozessen bei der Kontrolle und Regulation dynamischer Systeme eingesetzt wurde. Tabelle 2.1: Parametermatrix des 15-Variablen-Systems SIM005 (aus KLUWE, MISIAK & RINGELBAND, 1985, Appendix 1).

.82  .08  .11  .03  .00  .03  .00  .01  .00  .01  .00  .00  .00  .01  .00  
3    0    3    5    3    5    8    7    8    4    2    5    1    5    0    
.04  1.1  -.0  -0.  -.0  .01  .00  .01  .00  .01  -.0  -.0  .00  .01  -.0  
3    25   28   97   10   6    8    0    1    2    11   18   8    4    07   
-.1  -.1  .85  -.0  -.0  -.0  -.0  -.0  -.0  .01  .01  -.0  -.0  -.0  -.0  
73   31   6    92   06   10   12   06   12   4    6    14   10   06   04   
-.0  -.0  -.1  1.1  .01  .01  -.0  .00  -.0  -.0  .01  .00  -.0  -.0  -.0  
47   59   76   08   3    3    17   4    14   14   8    2    09   05   12   
-.0  -.0  .00  .01  .85  -.1  -.0  .08  .01  -.0  .00  -.0  -.0  .00  -.0  
18   17   1    2    0    02   84   9    8    08   2    08   14   9    11   
.00  .00  .01  -.0  .02  1.0  .03  .13  -.0  -.0  -.0  .01  -.0  -.0  -.0  
5    4    8    15   4    07   4    7    85   04   18   7    10   12   15   
-.0  -.0  .01  .01  -.1  .18  .95  .11  -.1  -.0  -.0  .00  -.0  -.0  .00  
17   09   0    4    10   1    0    3    25   09   09   8    16   18   9    
-.0  -.0  .00  .00  -.1  .09  -.1  .84  -.1  -.0  -.0  -.0  .00  -.0  -.0  
05   09   7    2    76   6    50   6    49   14   13   17   0    12   13   
.00  .01  -.0  -.0  -.1  .06  -.1  .14  1.0  .00  -.0  -.0  .01  -.0  -.0  
8    1    08   08   59   6    33   1    12   6    04   15   5    08   15   
-.0  -.0  .00  -.0  .01  -.0  -.0  -.0  .01  .87  .13  .12  .13  .07  -.0  
13   15   4    12   7    10   04   12   3    9    0    5    8    5    64   
-.0  .00  -.0  -.0  .01  .01  .00  .00  -.0  .04  1.1  .07  -.1  -.1  .04  
13   3    05   15   3    4    0    8    16   0    71   5    58   23   1    
.00  -.0  -.0  .00  .01  -.0  -.0  .00  .00  .18  .12  1.1  .08  -.1  -.1  
6    11   15   2    4    16   17   8    0    5    9    56   6    69   07   
.01  -.0  -.0  -.0  -.0  .00  -.0  -.0  -.0  .03  .13  -.1  1.1  -.0  .07  
2    17   13   12   06   9    06   05   02   4    2    01   41   41   8    
-.0  -.0  .00  .00  .01  .01  .00  -.0  .00  -.0  -.0  .12  -.0  .99  .09  
03   16   9    4    7    4    4    05   2    98   58   7    92   7    5    
-.0  -.0  .01  .01  .01  -.0  -.0  .00  .01  -.0  .16  -.1  .17  -.1  .93  
14   10   4    9    3    09   11   1    4    59   3    02   2    70   9    

Das System SIM005 besteht aus 15 miteinander vernetzten Variablen, wobei die wesentlichen Gewichte in der Hauptdiagonale placiert sind. Im Unterschied zu SIM006 haben aber jeweils alle Variablen miteinander zu tun, d.h. jede Variable ist mit jeder anderen Variablen vernetzt, wenngleich diese Verbindungen nicht sonderlich stark ausfallen. - Die Parametermatrix der Systemvariante SIM006 zeigt Tabelle 2.2.

Tabelle 2.2: Parametermatrix des 15-Variablen-Systems SIM006 (aus KLUWE, MISIAK & RINGELBAND, 1985, Appendix 2).

.6   1    -.1  -.1  -.1  0    0    0    0    0    0    0    0    0    0    
          8    8    8                                                      
.06  .8   1    .06  .06  0    0    0    0    0    0    0    0    0    0    
.06  .06  .6   1    .06  0    0    0    0    0    0    0    0    0    0    
-.0  -.0  -.0  .8   1    0    0    0    0    0    0    0    0    0    0    
8    8    8                                                                
.06  .06  .06  .06  .6   0    0    0    0    0    0    0    0    0    0    
0    0    0    0    0    .9   -.0  -.0  -.0  -.0  0    0    0    0    0    
                              5    4    8    4                             
0    0    0    0    0    .06  1.1  .06  .04  .05  0    0    0    0    0    
0    0    0    0    0    .04  .04  1.1  .04  0    0    0    0    0    0    
0    0    0    0    0    -.0  -.0  -.0  .9   -.0  0    0    0    0    0    
                         8    4    2         3                             
0    0    0    0    0    .04  .05  .04  .04  1.1  0    0    0    0    0    
0    0    0    0    0    0    0    0    0    0    1.0  0    0    0    0    
                                                  01                       
0    0    0    0    0    0    0    0    0    0    0    -1.  0    0    0    
                                                       001                 
0    0    0    0    0    0    0    0    0    0    0    0    1.1  0    0    
0    0    0    0    0    0    0    0    0    0    0    0    0    -1.  0    
                                                                 1         
0    0    0    0    0    0    0    0    0    0    0    0    0    0    1.3  

Wie aus dieser Tabelle leicht zu entnehmen ist, besteht das System SIM006 wie bereits erwähnt aus drei voneinander unabhängigen Teilsystemen zu je fünf Variablen. Das erste dieser Teilsysteme ist hoch vernetzt: die erste Nebendiagonale enthält mit dem Gewicht 1 ein jeweils höheres Gewicht als die Hauptdiagonale, wodurch das Verhalten einer Variable jeweils von einer anderen Variable stärker abhängt als von ihrem eigenen Zustand. Außerdem wird hierdurch ein Verzögerungseffekt eingeführt. Das mittlere Teilsystem wird überwiegend durch die Gewichte der Hauptdiagonale bestimmt, die übrigen Gewichte sind relativ dazu gering. Das letzte Teilsystem schließlich besteht aus fünf voneinander unabhängigen Variablen, von denen zwei oszillieren.

Tabelle 2.3: Eigenschaften der 15 Systemvariablen (div=divergence, con=convergence, h=high inertia, l=low inertia, med=medium).

Var Name  Trägheit  Richtung  Trägheit  Vernetzung  Bedeutung      
                              2                                    
pondo     1.64      div h     4.48      high        Luftzufuhr     
livat     -.26      div l     -3.76     high        Gaszufuhr      
barot     1.65      con h     .95       high        Schwefel       
wospa     .42       con h     -5.41     high        Verdichtung    
fimwo     .58       con h     1.94      high        Temperatur     
drosa     .56       div l     .96       med         Filterleistun  
                                                    g              
omton     .68       con h     -.81      med         Kühlung        
savet     -5.23     div h     -.67      med         Umlaufgeschw.  
tosar     -.89      div h     .96       med         Öldruck        
natra     .55       div l     -.80      med         Drehzahl       
artor     .17       con 1     .00       zero        Brennmenge     
kelar     -.08      con l     -5.99     zero        Wasserdruck    
rimos     -.18      con l     -.18      zero        Ausstoss       
garis     -.32      con l     -9.55     zero        Pumpvolumen    
voruk     -1.48     div h     -.92      zero        Energie        

Tabelle 2.3 zeigt Variablennamen (künstliche wie bedeutungstragende) und Eigenschaften der 15 Variablen von SIM005 und SIM006 auf einen Blick. Unter "Kon-" bzw. "Divergenz" meinen die Autoren (Un-)Gleichsinnigkeit zwischen Intervention und Richtungsänderung: divergent verhält sich eine Variable, wenn sie sich durch Hinzufügung einer Größe vermindert.

Die Systeme SIM005 und SIM006 werden den Pbn in einer grafischen Form veranschaulicht. Insgesamt 8 der 15 Systemvariablen werden als Säulen auf dem Bildschirm angezeigt, Eingriffe erfolgen durch numerische Angaben im unteren Bildschirmteil, Zielzustände sind als Striche eingeblendet (vgl. Abb. 2.4 und 2.5).

Abb. 2.4: Display in der Variante mit artifiziellen Begriffen (aus KLUWE, MISIAK & RINGELBAND, 1985, Appendix 4).

Die zwei exemplarisch gezeigten Bildschirmdisplays verdeutlichen mehreres: (a) die Pbn haben nicht alle Systeminformation zu jedem Takt präsent, (b) sie haben die vergangenen Zustände nicht verfügbar, (c) es ist unklar, wie und wo Pbn Repräsentationen externalisieren können (z.B. ist es für SIM005 kaum vorstellbar, daß ein Pb sämtliche 225 Parameter des Systems im Gedächtnis behält).

Angenommen wird, daß Pbn beim Bearbeiten ein mentales Modell entwickeln. Diese komplexen Lernprozesse, die bevorzugt über längere Zeitstrecken und am Einzelfall untersucht werden, betrachten die Hamburger unter der Perspektive der "chunk"-Bildung: Variablen werden gruppiert nach bestimmten Eigenschaften, die unter Vl-Kontrolle stehen. Diese Eigenschaften zeigen sich auch bei begleitenden bzw. anschließenden Befragungen der Pbn, zusätzlich zu der Information, welche Abhängigkeitsstrukturen nun identifiziert wurden.

Welche Effekte berichten KLUWE et al. über die Kontrolle derartiger Systeme? Die nachfolgende Abb. 2.6 veranschaulicht für zwei Pbn im Umgang mit SIM006 die Effekte unterschiedlicher Systemeigenschaften auf die Steuerungsqualität. Die AV in dieser Abbildung ist der Median der Abweichung von der eigentlich erforderlichen Kontrollmaßnahme. Man erkennt für beide Pbn die größten Abweichungen bei den zwar unverbundenen, aber oszillierenden Variablen, gefolgt von den hoch vernetzten, mittel vernetzten und unvernetzten Variablen. Gleiche Resultate erzielten die Autoren mit dem artifiziell benannten System.

Abb. 2.5: Display in der Variante mit bedeutungstragenden Begriffen (aus KLUWE, MISIAK & RINGELBAND, 1985, Appendix 5).

MISIAK, HAIDER & KLUWE (1989) diskutieren kritisch Bestrebungen, pauschale Gütemaße zu konstruieren. Ihre Forderung nach Angabe eines optimalen Lösungswegs wird ergänzt durch die Forderung nach einfachen Deskriptoren, die eine Bewertung der Vollständigkeit der mentalen Repräsentation zulassen. Sie warnen davor, einen direkten Zusammenhang zwischen Systemeigenschaften und mentaler Repräsentation anzunehmen: Vielmehr bestehe die Unmöglichkeit der Abbildung formaler Problemräume in mentale Problemräume. - Daß eine derartige direkte Abbildbarkeit nicht gelingt (und nicht gelingen kann), bedeutet aus meiner Sicht allerdings nicht, daß man diesen Problemkreis ad acta legen könnte. Vielmehr geht es ja gerade darum, die Wechselwirkungen zwischen den beiden Problemräumen aufzuzeigen. Aber dies ist wohl auch die Ansicht der Hamburger Arbeitsgruppe.

Abb. 2.6: Effekte verschiedener Systemattribute auf die Systemkontrolle von zwei Pbn RB10 und AE10 beim Umgang mit SIM006 (aus KLUWE, MISIAK & RINGELBAND, 1985, Figure 9).

HAIDER (1989) setzt sich kritisch mit den Arbeiten von Donald BROADBENT auseinander (vgl. Kapitel 2.3.1). Nach von ihr durchgeführten Untersuchungen an der SUGAR FACTORY kommt HAIDER zu dem Urteil, daß zur Steuerung dieses Systems vollständige Kenntnis der Systemzusammenhänge nicht erforderlich ist. Auch unrichtige Modelle, die sich nur auf die starken Wirkungen beschränken, erweisen sich als funktional tauglich. Dies Ergebnis ist vor allem in Hinblick auf die von Broadbent konstatierten Dissoziationseffekte bedeutsam. Das Auseinanderklaffen von Wissen und Handeln wird damit als potentielles Artefakt (vgl. hierzu auch SANDERSON, 1989) betrachtet: Solange mit unzureichendem Wissen gute Steuerung möglich ist, sind geringe Korrelationen zwischen Wissensumfang und Handlungsgüte wenig überzeugend. Hier wäre möglicherweise eine differenziertere Diagnostik angebracht (vgl. Kapitel 3). Neuere Arbeiten der KLUWE-Gruppe beschäftigen sich mit wesentlich realitätsnäheren Simulationen: untersucht wird der Wissenserwerb für die Prozeßsteuerung einer Asphaltmischmaschine (System MIX; FISCHER, OELLERER, SCHILDE & KLUWE, 1990) über einen langen Versuchszeitraum (mehrere Tage), jeweils an Einzelfällen. Ergebnisse dazu liegen derzeit noch nicht vor.

2.3 Dynamische Systeme in internationaler Forschung

Natürlich ist die Untersuchung des Umgangs mit dynamischen Systemen keine Domäne ausschließlich deutschsprachiger Forschung. Vielmehr gibt es schon vor den Arbeiten von DöRNER und Mitarbeitern bzw. zeitgleich damit und unabhängig davon eine Reihe von anderen einschlägigen Arbeiten auf internationaler Ebene, auf die hier einzugehen ist. Dabei zeigt sich, daß eine breite Palette von Arbeitsgebieten (Grundlagenforschung im Bereich der Gedächtnispsychologie; industrielle Anwendungskontexte; militärische Fragestellungen; Analysen menschlicher Fehler; Training von Management-Personal) an der Untersuchung dynamischer Systeme interessiert ist.

2.3.1 Arbeiten der Oxforder Arbeitsgruppe (BROADBENT)

In seiner ersten Arbeit zum Kontrollverhalten menschlicher Individuen bei komplexen Systemen geht es BROADBENT (1977) darum aufzuzeigen, daß Informationsverarbeitung auf verschiedenen Ebenen erfolgt. Diskrepanzen zwischen Verhalten und verbaler Beschreibung aufzudecken ist auch die Absicht der Arbeit von BROADBENT, FITZGERALD und BROADBENT (1986). Ausgehend von der Feststellung, daß im Alltag häufig eine Übereinstimmung zwischen verbaler Beschreibung und tatsächlichem Verhalten auftritt, ist eine Erklärung für beobachtbare Dissoziationsphänomene in Laborsituationen die große Menge an Information, die bei der Aufgabenbearbeitung zu bewältigen ist. Damit paßt der Befund zusammen, daß die gleiche Aufgabe geringere Dissoziation zeigt, wenn die relevanten Aspekte salient gemacht werden (vgl. REBER, KASSIN, LEWIS & CANTOR, 1980).

Was die Asymmetrie zwischen Verhalten und Verbalreport betrifft, stellen BROADBENT et al. (1986) fest, daß es wohl selten Fälle gibt, in denen z.B. jemand die Regeln einer Grammatik kennt, aber nicht angeben kann, ob eine bestimmte Zeichenfolge mit der Grammatik kompatibel ist. Wer die korrekte Definition kenne, treffe auch die richtige Entscheidung. Der umgekehrte Fall sei dagegen häufiger. Gegenstand ihrer Arbeit ist der erstgenannte Fall. Zwei verschiedene Systeme finden Verwendung: zum einen das Transport-System, das bei BROADBENT (1977) erstmals eingesetzt wurde, und zum anderen ein ökonomisches Kleinsystem. Das TRANSPORT-System verlangt vom Pbn, eine bestimmte Auslastung von Bussen ("l" für "load") und öffentlichen Parkplätzen ("s" für "space") durch die Variation der Busfrequenz ("i" für "interval") und der Parkgebühren ("f" für "fee") zu erreichen. Die zwei Strukturgleichungen des linearen Systems lauten:

l = 100 . (2.2 . i + 0.8 . f) (2.4)

s = 5 . (0.9 . f - 0.4 . i) (2.5)

Es handelt sich um ein "undynamisches" System in Hinsicht auf die mangelnde Zeitabhängigkeit der endogenen Variablen l und s, die nicht von ihren früheren Zuständen beeinflußt werden. Es handelt sich um ein wenig vernetztes System insofern, als die beiden Strukturgleichungen außer durch die exogenen Variablen keine Verbindungen aufweisen. Untersucht wurden mit diesem System 30 Frauen, aufgeteilt auf drei verschiedene Bedingungen. T-Gruppe: Nach einer Erfassung des Vorwissens bearbeiten die Pbn dieser Gruppe das System viermal; anschließend wird erneut das Wissen überprüft. TE-Gruppe: Anstelle des vorangestellten Fragebogens erhält diese Gruppe die Fragen zusammen mit den richtigen Antworten. S-Gruppe: Diese Gruppe erhält nach dem Vorwissenstest Gelegenheit, die zwei Teilsysteme separat zu üben. Erst nach der übungsphase beginnt die eigentliche Systemsteuerung.

Im Unterschied zur T-Gruppe zeigt die S-Gruppe Verbesserungen hinsichtlich des Fragebogen-Wissens, gemessen an der Zahl korrekter Antworten im Vor- bzw. Nachtest. Hinsichtlich der Leistung zeigen T- und TE-Gruppe Verbesserungen vom ersten zum zweiten Durchgang. Dieser bleibt bei der S-Gruppe aus, da sie bereits aufgrund der isolierten Übung mit einem hohen Niveau startet, das in den anderen Gruppen erst später erreicht wird. Die Ergebnisse lassen sich nach Broadbent so zusammenfassen: Übung verbessert die Leistung bei der Kontrolle eines dynamischen Systems, ohne zugleich das Wissen darüber anzuheben. Bezieht sich die Übung dagegen auf Teile des Systems, verbessert sich sowohl Leistung als auch verbalisiertes Wissen. Während mit der eben beschriebenen Studie unterschiedliche Trainingsverfahren untersucht wurden, soll ein zweites Experiment Eigenschaften des dynamischen Systems verändern, da die resultierenden Schwierigkeitsunterschiede eventuell mit dem Ausmaß an Dissoziation in Beziehung stehen. Das dafür verwendete ECONOMY-System besteht aus zwei exogenen Variablen, der Steuerrate r (in Prozent) und der Höhe der Staatsausgaben g (in Währungseinheiten), mittels derer die zwei endogenen Variablen Arbeitslosigkeit u und Inflationsrate f kontrolliert werden müssen. Die zwei entsprechenden Strukturgleichungen lauten:

ut+1 = 96 - ((1 - rt) . (gt + 7650)) / 730 (2.6)

ft+1 = ft . (1.45 - 0.15 . ut) (2.7)

Arbeitslosigkeit ist in diesem Modell direkt linear abhängig von Steuererhöhung und Ausgabensenkung. Die Inflationsrate dagegen reagiert verzögert. Steigt die Arbeitslosigkeit über drei Prozent, sinkt die Inflationsrate. Je kleiner diese wird, um so unempfindlicher reagiert sie auf spätere änderungen der Arbeitslosigkeit.

Die Untersuchung mit diesem System, das analog zu der eben beschriebenen Studie präsentiert wurde, zeigte einen interessanten Effekt: Hatten noch vor Versuchsbeginn alle Pbn korrektes Wissen über die Wirkung von Staatsausgaben (g) auf Arbeitslosigkeit (u), war bei der Hälfte von insgesamt 24 Pbn unter Standardbedingungen am Versuchsende dieses korrekte Wissen durch "falsches" ersetzt. Gleichzeitig zeigten sich für diese Pbn Verbesserungen in den Leistungsmaßen. Bei weiteren 12 Pbn wurde alle Effekte in dem System zeitverzögert präsentiert. Ergebnis: "... lagged effects are simply harder ..." (BROADBENT et al., 1986, p. 46). Eine weitere Gruppe von 12 Pbn wurde mit dem System konfrontiert, bei dem die stabilisierende Eigendynamik bei der Inflationsrate entfernt wurde. Sie erzielte zwar bedeutsamen Wissenszuwachs hinsichtlich der Inflationsvariablen, zeigte aber Verschlechterungen der Leistungsmaße mit zunehmender übung.

Zwei verschiedene Strategien könnten - so BROADBENT et al. - generell angenommen werden: (1) die Strategie der "model manipulation" und (2) die des "situation matching". Unter Modellmanipulation ist zu verstehen: es liegt ein Modell des zu steuernden Systems vor, das den tatsächlichen Verhältnissen so genau wie möglich angepaßt ist. Ein derartiges Modell erlaubt Vorhersagen und kann Begründungen für bestimmte Effekte geben. Unter Situationsanpassung ist eine Strategie zu verstehen, die im einfachsten Fall eine Tabelle korrekter Handlungen für bestimmte Situationen anlegt (ein "look-up table", ein neuronales Netzwerk). Dieses Vorgehen kann zu guten Leistungen führen, ohne daß das Wissen explizit gemacht werden könnte. Nach Ansicht von BROADBENT et al. (1986) wäre es unklug anzunehmen, daß verbales bzw. verbalisierbares Wissen das Ideal darstelle, auf das hin sich eine weniger explizite Wissensform zuzubewegen hätte. Vielmehr sei es wichtig festzustellen, unter welchen Bedingungen die eine oder die andere Form die situationsangemessene Strategie ist. BERRY und BROADBENT (1987) beschäftigen sich mit der Frage, welche Erklärungsformen bei komplexen Suchproblemen für den Problemlöser hilfreich sind. Dieser Frage kommt im Zusammenhang mit Mensch-Maschine-Systemen große Bedeutung zu, da nicht klar ist, bis zu welchem Ausmaß Erklärungskomponenten in Expertensystemen von Nutzen sind. Erklärungskomponenten in Expertensystemen sollten nach Berry und Broadbent folgende Funktionen wahrnehmen: (1) sie sollen dem Wissensingenieur zu Testzwecken und zur Fehleranalyse in der Entwicklungsphase helfen; (2) sie sollten einen sachkundigen Benutzer davon überzeugen, daß das Wissen des Systems und seine Ableitungsverfahren angemessen sind; (3) sie sollten einen naiven Benutzer über das Wissen des Systems informieren; (4) sie sollten Benutzer über Alternativen informieren. Um zu systematischen Aussagen bezüglich der Rolle von Erklärungskomponenten zu gelangen, sind kontrollierte Experimente erforderlich. Die beiden Autoren verwenden hierzu ein "Flußverschmutzungsproblem", bei dem Pbn durch sequentielle Probenentnahmen herauszufinden haben, welche Firma Schadstoffe in einen Fluß einleitet. Es existiert eine Liste von 16 Firmen, deren jede zwischen 3 und 10 Schadstoffe in den Fluß einleitet. Insgesamt gibt es 24 Schadstoffe. Erste empirische Befunde (BERRY & BROADBENT, 1986) deuten darauf hin, daß Pbn eine derartige Aufgabenstellung nur suboptimal bearbeiten. Anstatt nach Schadstoffen zu suchen, die möglichst viele Firmen eliminieren, suchen Pbn eine Firma aus und testen alle dort vorkommenden möglichen Schadstoffe ab; sind nicht alle vorhanden, wenden sie sich der nächsten Firma zu. Dieses Vorgehen ist auch aus anderen Forschungsbereichen wie z.B. Konzeptidentifikation bekannt. In der Studie von 1986 wurden drei Formen von Hilfe verglichen: unter einer Bedingung gab es Hilfen über die Art des zu testenden Schadstoffs, der Pb mußte nur die Schlußfolgerung ziehen, welche Firma in Frage kam; unter einer zweiten Bedingung erhielt der Pb nach durchgeführtem Test Hilfe in Form einer Liste der fraglichen Firmen; unter einer dritten Bedingung gab es eine Kombination beider Hilfen. Es zeigte sich, daß die Hilfe der zuerst beschriebenen Art keinerlei Wirkung zeigte, nur unter der kombinierten dritten Bedingung waren Effekte feststellbar, die auch nach Wegnahme der Hilfe stabil blieben.

Die Tatsache, daß Pbn mit den vorgeschlagenen Schadstoff-Tests nichts anfangen konnten, legte die Vermutung nahe, daß sie die notwendigen Schlußfolgerungen nicht ziehen konnten. Experiment 1 von BERRY und BROADBENT (1987) repliziert daher die 1986 realisierten Bedingungen mit zusätzlichen Erklärungen: Unter der ersten Bedingung ("single explanation", SE) wird ein erklärender Text über das Prinzip der Hilfestellung dargeboten, während eine zweite Bedingung ("multiple explanations", ME) dem Pb zu jedem Zeitpunkt, wo das Expertensystem einen Vorschlag macht, die Möglichkeit einer "warum"-Frage einräumt und entsprechende Kurz-Informationen zeigt. Zusätzlich wird eine Kontrollgruppe ohne Erklärung gebildet ("no explanation", NE). Die Rangfolge bezüglich der Zahl durchgeführter Schadstofftests wie auch bezüglich des postexperimentell erhobenen Wissens in Form eines Fragebogens liefert das Ergebnis NE = SE > ME und zeigt, daß ausschließlich die ME-Gruppe von der Hilfe profitiert.

2.3.2 Arbeiten der Brüsseler Arbeitsgruppe (KARNAS)

In einigen neueren Arbeiten der Brüsseler Arbeitsgruppe von CLEEREMANS und KARNAS wird ebenfalls auf die Dissoziation von verbalisierbarem Wissen und Handlungsfähigkeit eingegangen (CLEEREMANS, 1988; CLEEREMANS & KARNAS, 1988; KARNAS & CLEEREMANS, 1987). Diese Arbeiten sollen nachfolgend kurz beschrieben werden.

CLEEREMANS (1988) führte eine Replikation der Untersuchung von BERRY und BROADBENT (1984) mit der SUGAR FACTORY durch. Diese Zuckerfabrik ist ein lineares Kleinsystem, bei dem der Pb die Arbeiterzahl in zwölf Stufen festlegen kann, um eine bestimmte Produktionsquote (ebenfalls zwölfstufig) konstant zu erzielen. Die Kontrolleistung wird daran gemessen, in wievielen von insgesamt 30 Takten das vorgegebene Produktionsziel eingehalten wurde. Im Anschluß an die Kontrollaufgabe wird mittels zweier Fragen erfaßt, wie sich bei einem gegebenen Produktionsstand Veränderungen der Arbeitskräfte auf die Produktionsquote auswirken. Drei weitere Fragen geben dem Pb drei Systemzustände vor, aus denen er eine Vorhersage über die Arbeiterzahl treffen soll. Insgesamt 60 studentische Pbn (davon 29 Frauen) im Alter zwischen 18 und 36 Jahren wurden zufällig auf eine der folgenden fünf Versuchsbedingungen aufgeteilt:

(1) "Kontrollgruppe": 30 Takte werden unter Standard-Bedingungen bearbeitet. (2) "übungsgruppe": hier stehen insgesamt 60 Takte zur Verfügung. (3) "Transfer": Vor der normalen Kontrollaufgabe wird 30 Takte lang ein strukturell identisches System ("Personal Interaction System", vgl. BERRY & BROADBENT, 1984) bearbeitet. (4) "Explorationsgruppe": vor der normalen Kontrollaufgabe wird den Pbn das gleiche System für 30 Takte mit der Instruktion vorgelegt, die Zusammenhänge zwischen den Variablen zu identifizieren. (5) "Plausibilitätsgruppe": Den Pbn wird die normale Kontrollaufgabe vorgelegt, dabei zusätzlich jedoch eine plausible Erklärung über Zeitverzögerungseffekte gegeben ("die Arbeiter müssen nach der Produktion von Zucker diesen auch noch verpacken").

Als Ergebnis seiner Untersuchung konnte CLEEREMANS zeigen, daß (1) die Befunde der Studie von BERRY und BROADBENT (1984) zahlenmäßig sehr genau replizierbar sind, (2) die Übungsgruppe zwar Leistungs-, nicht aber Wissensvorteile erwirbt, (3) weder die vorherige Bearbeitung eines strukturgleichen Problems noch die vorherige Exploration Unterschiede bewirken, (4) dafür aber die Erhöhung der Plausibilität sowohl Leistungs- als auch Wissensvorteile erzeugt.

In einer weiterführenden Analyse dieser Daten konnten CLEEREMANS und KARNAS (1987) mittels hierarchischer Clusteranalyse zeigen, daß sich die Kontrolleistungen ihrer Pbn - aufgeteilt in sechs aufeinanderfolgende Blöcke von je fünf Takten - keineswegs homogen entwickelten. Während eine der beiden eruierten Gruppen, G1 mit 36 Pbn, über alle sechs Blöcke auf etwa dem gleichen Niveau bleibt, verbessern sich die 24 Mitglieder der Gruppe G2 über die Blöcke hinweg in ihrer Kontrollqualität.

Die genannten Autoren legten schließlich ein Simulationsmodell des unterstellten Entscheidungsprozesses vor, das die Kontrollqualität ihrer Pbn gut beschreibt ("... found it to be totally adequate for describing subject's performance ...", KARNAS & CLEEREMANS, p. 4). Zwei Prozeduren werden hierzu verwendet: (1) die "implizite" Prozedur sieht die Konstruktion einer Tabelle vor, in der jede der zwölf möglichen Arbeitermengen mit jeder der zwölf möglichen Produktionsmengen dadurch in Beziehung gesetzt werden kann, daß die Häufigkeiten gemeinsamen Vorkommens gezählt werden; (2) eine "explizite" Prozedur, die dann eingreift, wenn die erste nicht bzw. noch nicht weiterhilft: hier wird in einer Variante (a) nach Zufall eine der möglichen Interventionen gewählt, in einer anderen Variante (b) nach einer linearen Regel entschieden, die in Abhängigkeit von der Differenz der beiden letzten Zielabstände die Produktion um einen Punkt erhöht bzw. erniedrigt. Die Simulation auf der Basis von Prozedur 1 und 2a liefert Leistungswerte, die denen von Pbn sehr nahe kommen. Wird Prozedur 1 mit 2b verwendet, verschlechtert sich die Leistung, da unter Verwendung der linearen Regel die Tabelleneinträge langsamer gefüllt werden, da das System nicht so vielfältig wie unter Zufallsbedingungen reagiert. LUC und MARESCAUX (1989) sowie MARESCAUX, LUC und KARNAS (1989) beschäftigen sich mit Wissenserwerb im Kontext des Simulationssystems SUGAR FACTORY von BERRY und BROADBENT (1984). Sie gehen dabei von der BROADBENT'schen Unterscheidung zweier Lernmodi aus: ein unselektives Lernen, bei dem Kontingenzen zwischen Variablen gelernt werden und zur Leistungssteigerung führen, ohne daß dieses Wissen verbalisiert werden kann, und ein selektives Lernen, bei dem gezielt Hypothesen gebildet und getestet werden, die ihrerseits verbalisierbar sind. Die Variable, die für die Wahl eines der beiden Modi verantwortlich gemacht wird, ist das Aufgabenmerkmal "salience". Je salienter die Beziehungen in einem System sind, umso eher wird selektiv gelernt. Als Modell des assoziativen unselektiven Lernens gehen die Autoren auf einen Vorschlag von CLEEREMANS (1986) ein, wonach während der Lernphase in einer Tabelle die ausprobierten Maßnahmen zusammen mit den resultierenden Systemzuständen abgespeichert werden. Während der Steuerung soll dann auf diese Tabelle zurückgegriffen werden.

2.3.3 Arbeiten der "Systems Dynamics"-Gruppe am MIT

Am MIT (Massachusetts Institute of Technology) in Cambridge wurden Ende der 60er Jahre von Jay FORRESTER die bekannten Weltmodelle entwickelt (vgl. MEADOWS, MEADOWS, ZAHN & MILLING, 1972). In der Tradition dieser Arbeitsgruppe liegen neuere Untersuchungen über den Umgang von Menschen mit dynamischen Systemen vor, die kurz dargestellt werden sollen. Ein vereinfachtes Multiplikator-Akzelerator-Modell zum Kapitalinvestment lag der Untersuchung von STERMAN (1989) zugrunde (System STRATAGEM, vgl. STERMAN & MEADOWS, 1985). Insgesamt 49 MIT-Studenten sollten 36 Takte lang mit einer Eingriffsvariable ("Anforderungen aus dem Kapitalsektor") den Kapitalbestand ihrer kleinen Makroökonomik den Marktbedürfnissen anpassen. Obwohl vollständige und korrekte Informationen über den jeweiligen Stand aller Variablen gegeben wurde, steuerte die überwiegende Mehrheit der Pbn das System weit entfernt vom Optimum. Die Aufgabenstellung gehört zur großen Klasse der Lagerhaltungsprobleme, bei denen der Entscheidungsträger einen Bestand auf einem Zielwert bzw. innerhalb eines Zielwerte-Bereichs halten soll (vgl. GIRLICH, KöCHEL & KüENLE, 1990, zu formalen Aspekten dieses Problemtyps). Dabei sind Störungen aus der Umgebung (z.B. Bestandsentnahmen) zu kompensieren und Verzögerungen (z.B. bei der Bestandsauffüllung) zu antizipieren. Aufgrund seiner Studie kommt STERMAN zu dem Schluß, daß in derartigen Situationen zwei Arten von "misperceptions of feedback" bevorzugt auftreten: (1) Fehlwahrnehmung von Zeitverzögerungen, (2) Fehlwahrnehmung von Entscheidungen aus der Systemumgebung. Unter den Zeitverzögerungsfehlern sind einerseits zu aggressive Reaktionen auf Abweichungen des tatsächlichen Bestands vom erwünschten zu verstehen, andererseits aber auch die Ungeduld, nach Durchführung einer Kontrollaktion auf deren vollen Effekt zu warten. Die mangelnde Berücksichtigung der Systemumgebung bezieht sich auf Neben- und Rückwirkungen der getätigten Eingriffe, auf die endogenen Prozesse des Systems also.

Die geschilderten Schwächen sind jedoch nicht unüberwindlich: bereits nach drei bis fünf derartigen Berarbeitungsgängen, so STERMAN (1989, p. 330), seien die meisten seiner Pbn in der Lage gewesen, dieses System stabil zu halten - nicht jedoch Systeme mit veränderten Eigenschaften! Die hier auftauchende Frage, ob denn überhaupt ein Lernen des Umgangs mit dynamischen Systemen möglich sei, beantworten SENGE und STERMAN (1991) positiv: Am Beispiel der amerikanischen Versicherungsgesellschaft "Hanover Insurance" demonstrieren die Autoren, wie unter Einsatz eines Modellbildungssystems Führungskräfte dazu gebracht wurden, über firmeninterne Abhängigkeiten nachzudenken, diese in ein angemessenes Modell zu überführen und anschließend die Eigenschaften dieses Modells systematisch zu untersuchen. Die verwendeten Hilfsmittel (Kausaldiagramme!) sollen bei der genannten Gesellschaft inzwischen zum "commonplace" geworden sein... Die berichteten positiven Effekte sind im übrigen nicht nur für Unternehmer anzunehmen: MORECROFT (1988) bewertet in seinem Übersichtsartikel derartige Übungen zu strategischem Denken auf der Basis kleiner transparenter Modelle generell positiv für jede Art von "policymaker".

2.3.4 Arbeiten anderer internationaler Arbeitsgruppen

In MACKINNON und WEARING's (1985) System BLACK BOX geht es um die Kontrolle eines abstrakten Feedback-Systems erster Ordnung über 75 Takte. Das Verhalten des Systems wird durch eine komplizierte Formel beschrieben (vgl. MACKINNON & WEARING, 1985, p. 165), obwohl die Zahl der Variablen sehr klein ist: der Pb muß eine einzige endogene Variable auf einem Zielwert halten, indem er eine einzige exogene Variable manipuliert. Experimentell untersucht wurden von diesen Autoren (a) der Einfluß einer Begrenzungsfunktion ("boundary function"), der die Eingabe des Pb entweder verstärkt oder abschwächt, sowie (b) der Einfluß von Feedback-Intensität, operationalisiert durch zwei Grade von zeitverzögerten Effekten: entweder ist das System nur vom letzten Input-Wert oder aber von den bis zu neun letzten Inputs abhängig, wobei im letzteren Fall größere Eingabewerte "sanftere" Effekte bewirken. Hinsichtlich ihrer AV "Abweichung vom Zielwert" fanden MACKINNON und WEARING bei 32 Pbn keinen Effekt des Verstärkungsfaktors, wohl aber hinsichtlich des Grades an Zeitverzögerung: bei fehlender Zeitverzögerung kommt es anfangs zu großen Zielabweichungen mit dann eintretenden Verbesserungen. Wenn zeitliche Abhängigkeiten bestehen, ist die Leistung von Anfang an besser.

Abb. 2.7: Allgemeine Situation der FEUER-Simulation von BREHMER (1987, p. 116).

Abb. 2.8: Benutzeroberfläche der FEUER-Simulation: ein "+" steht für Feuer, "-" für gelöschte Brände, die Ziffern geben die Standorte der Feuerbekämpfungseinheiten an, das Rechteck zeigt die zu schützende Basis. Links: Angaben über Standorte, Aufträge und Zeiten der einzelnen Einheiten (aus BREHMER, 1987, p. 117).

BREHMER (1987) interessiert sich für die mentalen Modelle, die Problemlöser beim direkten interaktiven Bearbeiten eines Systems entwickeln, das BREHMER als dynamisches Entscheidungsproblem ("dynamic decision problem") bezeichnet. Darunter versteht er Probleme mit folgende Eigenschaften (vgl. BREHMER, 1989, p. 144): (a) eine Reihe voneinander abhängiger Entscheidungen ist zur Zielerreichung erforderlich, (b) die Umwelt verändert sich über die Zeit hinweg, und (c) die Entscheidungen verändern den Zustand dieser Umwelt und erzeugen dadurch neue Entscheidungssituationen. Ausgehend von einem generellen Programm zur Simulation dynamischer Entscheidungsprobleme namens DESSY ("dynamic environmental simulation system") hat BREHMER ein FEUER-Szenario konstruiert, bei dem ein Pb in die Rolle eines Einsatzleiters schlüpft, der aus einem Aufklärungsflugzeug heraus die Entwicklung eines Waldbrandes beobachtet und entsprechende Löscharbeiten dirigiert (vgl. Abb. 2.7). Alle Informationen werden am Bildschirm angezeigt, insgesamt acht Löscheinheiten stehen zur Verfügung, um die Ausbreitung des Waldbrandes und ein Übergreifen auf eine Siedlung zu verhindern. Abb. 2.8 demonstriert die Benutzeroberfläche. Das Szenario ist übrigens im militärischen Kontext entstanden und stellt eine Analogie zum Truppeneinsatz dar.

Die Untersuchungen BREHMER'S (1987; vgl. auch BREHMER & ALLARD, 1991) zeigen, daß Komplexität - gemessen an der Anzahl und Leistungsfähigkeit der Löscheinheiten - "had litte, or no effect on performance, so long as the total efficiency of the units as a whole is kept constant." (p. 118). Dagegen zeigten Verzögerungen selbst minimalen Feedbacks katastrophale Folgen. Nach BREHMER schaffen es die Pbn nicht, ein brauchbares Vorhersage-Modell für dieses System zu entwickeln; stattdessen basieren die Pbn-Reaktionen nur auf direktem Feedback. Folgende Kriterien nennt BREHMER (1989, p. 147f.) zur Beurteilung dynamischer Entscheidungsprobleme in Echtzeit: (1) Komplexität (Effektivität von Operatoren; Art der Kausalstruktur; Anzahl der Elemente), (2) Feedback-Qualität (Menge und Art der Informationen über den Systemzustand), (3) Feedback-Verzögerung, (4) Möglichkeiten dezentraler Kontrolle, (5) Veränderungsrate des Systems, (6) Beziehung zwischen Eigenschaften des zu kontrollierenden Prozesses und denjenigen des Kontrollprozesses.

Den Erwerb von Prozeßkontrolle untersuchen MORAY, LOOTSTEEN und PAJAK (1986) am Beispiel eines Tanksystems, das aus vier Teilsystemen besteht. Jedes dieser Teilsysteme besteht aus einem Tank, Zufluß- und Abflußventilen sowie einem Heizstab. Temperatur und Füllstand jedes Tanks werden auf einem Bildschirm analog wie digital angezeigt. Aufgabe der Pbn ist es, in insgesamt 12 Durchgängen entweder einen oder alle Tanks jeweils so schnell wie möglich zu einem definierten Füllungs- und Temperaturzustand zu bringen. Jeder Durchgang endet mit dem Erreichen dieses Zielzustands.

MORAY, LOOTSTEEN und PAJAK (1986) machen deutlich, daß eine Datenanalyse auf der Basis aggregierter Daten angesichts der großen Verhaltens- und Leistungsvarianz wenig sinnvoll erscheint. Aus den Verläufen der zentralen Systemvariablen schließen sie, daß ihre Pbn gute mentale Modelle entwickelt haben sollten.

"One aspect of the more complex skill is, therefore, the discovery of causal relations and their use to develop control tactics." (MORAY, LOOTSTEEN & PAJAK, 1986, p. 498).

Beginnend mit closed-loop-Kontrolle entwicklen gute Operateure zu späteren Phasen beinahe perfekte open-loop-Kontrolle. Beim Wechsel der Kontrolle eines Tanks zur Kontrolle von vier Tanks simultan verlangsamt sich das Lernen und Interferenz tritt auf. Trotz enormer Variation in den zielführenden Sequenzen entstehen Strategien unter Bezugnahme auf ein mentales Modell, "which represents the dynamics and causality of the system and leads to more efficient control." (p. 504).

Andere Ansätze zur Erklärung des Umgangs mit dynamischen Systemen basieren auf Fehleranalysen. RASMUSSEN (1987) zeigt, wie man typische menschliche Fehler in Bezug zu den drei von ihm postulierten Ebenen kognitiver Kontrolle setzen könnte. Die drei Verhaltensebenen "skill-based", "rule-based" und "knowledge based" gehen mit jeweils entsprechenden Informationstypen um: "signals", "signs" und "symbols". Während Signale raum-zeitlich gebundene Informationen ohne darüberhinausgehende Bedeutung darstellen, beziehen sich Zeichen auf konventionelle Verhaltensweisen oder gründen auf Erfahrung; Symbole beziehen sich auf Konzepte, die an funktionale Eigenschaften der Objekte gebunden sind:

Abb. 2.9: Typische Fehlermechanismen und ihr Verhältnis zu den drei postulierten Ebenen der Verhaltenskontrolle (aus RASMUSSEN, 1987, p. 54).

"While signs refer to percepts and rules for action, symbols refer to concepts tied to functional properties and can be used for reasoning and computation by means of a suitable representation of such properties. Signs have external reference to states of and actions upon the environment, but symbols are defined by and refer to the internal, conceptual representation which is the basis for reasoning and planning." (RASMUSSEN, 1987, p. 55). Abb. 2.9 zeigt die Verbindung der drei Verhaltensebenen zu typischen Fehlern, die bei der Interaktion mit dynamischen Umwelten auftreten können.

Abb. 2.10: Das "generic error-modeling system" (GEMS) unter Einbezug der drei Verhaltensebenen (aus Reason, 1987, p. 66).

Unter Bezugnahme auf das Fehlermodell von NORMAN (1981), auf eigene vorangegangene Arbeiten wie auch auf das eben beschriebene Drei-Stufen-Konzept von RASMUSSEN (1987) legt REASON (1987) ein allgemeines Rahmenmodell vor zur Beschreibung der prinzipiellen kognitiven Beschränkungen und Verzerrungen, die Ursachen für menschliche Fehler sein können. Sein "generic error-modeling system" (GEMS) ist in Abb. 2.10 dargestellt. Auf der Ebene der Routinetätigkeit können "skill-based errors" (slips) auftreten (überwachungsfehler; gehen der Entdeckung eines Problems voran). In der Folge kann ein "rule-based error" (mistake) oder ein "knowledge-based error" (mistake) auftreten (beide: Problemlösefehler; folgen der Entdeckung eines Problems). Abb. 2.11 zeigt für fünf verschiedene Dimensionen Unterschiede zwischen den drei Fehlerarten auf.

 FACTORS:   SKILL-BASED       RULE-BASED       KNOWLEDGE-        
            SLIPS             MISTAKES         BASED MISTAKES    
 ACTIVITY    Routine actions   Problem          Problem Solving  
                              Solving                            
FOCUS OF    On something      Directed at      Directed at       
ATTENTION   other than        problem-         problem-          
            present task      related issues   related issues    
 DETECTION   Usually fairly   Hard, and        Hard, and often   
            rapid             often only       only achieved     
                              achieved with    with help from    
                              help from        others            
                              others                             
 CONTROL    Mainly            Mainly           Resource-limited  
            automatic         automatic        conscious         
            processors        processors       processes         
            (Schemata)        (Rules)                            
 FORMS      Largely           Largely           Variable         
            predictable       predictable                        
            'Strong-but-wron  'Strong-but-wro                    
            g' error forms    ng' error                          
            (Actions)         forms (Rules)                      

Abb. 2.11: Unterschiede der drei Fehlerarten hinsichtlich fünf verschiedener Dimensionen (aus REASON, 1987, p. 70).

2.4 Zusammenfassung

Neben einer kurzen Darstellung verschiedener Vorläuferarbeiten widmet sich das zweite Kapitel aktuellen nationalen und internationalen Arbeiten zum Thema "Umgang mit dynamischen Systemen". Ausgehend von den KüHLHAUS-Arbeiten hat die Bamberger Arbeitsgruppe ein handlungsregulierendes System konzipiert, das kurz dargelegt und kritisiert wird. Die bloße Tatsache, daß Annahmen in Form eines Simulationsprogramms vorliegen, macht jedoch noch keine Theorie aus - der empirische Gehalt bleibt angesichts der Indikatorproblematik unklar. Die Arbeiten der Bayreuther Arbeitsgruppe mit der SCHNEIDERWERKSTATT und mit MORO beziehen sich vor allem auf Kenntnis- und Leistungsvergleiche erfahrener wie unerfahrener Personen. Allerdings tauchen hier Probleme bei der Operationalisierung von Expertise auf, die die Eindeutigkeit einiger Befunde einschränken. Die Hamburger Arbeitsgruppe beschäftigt sich mit Lernprozessen bei eher abstrakten Systemen und kommt zu dem Schluß, daß Pbn unterschiedliche Systemattribute erkennen und zugleich differenziert damit umgehen können.

Die Oxforder Arbeitsgruppe setzt erst in neuerer Zeit Systeme ein, die man in einem strengen Sinn dynamisch nennen kann. Bevorzugt werden dort überschaubare Kleinsysteme, die im Rahmen von Experimenten zu verschiedenen Lernformen eingesetzt werden. Auftretende Dissoziationsphänomene zwischen meist geringem verbalisierbaren Wissen und akzeptabler Steuerungsqualität interpretiert man dort vor dem Hintergrund verschiedener Lernbedingungen (Modellmanipulation vs. Situationsanpassung) bzw. Repräsentationsformen. Die Brüsseler Arbeitsgruppe folgt dieser Tradition und untersucht ebenfalls Dissoziationsphänomene anhand derselben Systeme. Hinsichtlich ihrer Modellbildung verfährt diese Gruppe analog zum Oxforder Vorgehen und unterscheiden selektive bzw unselektive Lernprozesse. Die Arbeitsgruppe am MIT in Cambridge (Massachusetts) untersucht Systemsteuerung bei kleinen, transparenten Systemen. Trotz beobachteter Schwächen vor allem bei der Informationsverarbeitung feedback-behafteter Systeme liegt die Annahme zugrunde, daß bei entsprechenden Lernbedingungen eine Leistungsverbesserung eintritt. Dafür sollen Modellbildungssysteme hilfreich sein. Weitere Arbeitsgruppen beschäftigen sich ebenfalls mit Fragen zeitverzögerten Feedbacks (BREHMER) oder auch mit dem Erwerb allgemeiner Prozeßkontrolle (MORAY). Auftretende Fehler werden dabei als wichtige Datenquelle herangezogen (RASMUSSEN, REASON).

Abschließen möchte ich diese Darstellung der Arbeiten verschiedener deutscher und internationaler Arbeitsgruppen zum Thema "Umgang mit dynamischen Systemen" mit einem Zitat von Bernd BREHMER, das den derzeitigen Wissensstand meines Erachtens kompakt darstellt:

"... we know very little about people`s ability to control dynamic systems and the conditions that affect this ability. The main reason for this is, of course, that there has been very little research in the area. Nevertheless, the results available so far seem to have produced one important result: the nature of the feedback available is of crucial importance. Thus, subjects seem to learn to cope with those aspects about which they have direct and concrete feedback, but not with those that they need to infer from indirect information." (BREHMER, 1989, p. 149).

 
Zum Seitenanfang Top
Zuletzt bearbeitet am 30.11.2001 von JF.