Ruprecht-Karls-Universität HeidelbergPsychologisches Institut
Siegel
Anschriften und Telefonnummern Volltext-Suche, E-Mail-Suche, Datenbank-Suche Alle Seiten im Überblick
leiste-bottom picture ATP

Personen > Joachim Funke > Methoden der Kognitiven Psychologie

Methoden der Kognitiven Psychologie

Methoden der Kognitiven Psychologie

Joachim Funke

[Original erschienen als: Funke, J. (1996). Methoden der Kognitiven Psychologie. In E. Erdfelder, R. Mausfeld, T. Meiser, & G. Rudinger (Eds.), Handbuch Quantitative Methoden (pp. 515-528). Weinheim: Psychologie Verlags Union. Die vorliegende Fassung wurde aktualisiert und mit Links angereichert.]

Kognitive Psychologie als Teilgebiet der Allgemeinen Psychologie beschäftigt sich mit Vorgängen, bei denen ein Individuum Gedächtnisinhalte erwirbt, gebraucht oder modifiziert. Solche Vorgänge hat man traditionell unter den Stichworten Wahrnehmung, Lernen, Gedächtnis, Denken, Aufmerksamkeit und Sprache behandelt. Das verbindende Glied ist der Terminus "Information", der sich auf Umgebungsreize und Gedächtnisinhalte bezieht, die bei derartigen Prozessen von der Person aufgenommen bzw. abgerufen, gespeichert, verarbeitet und/oder verändert werden. In neueren Arbeiten wird anstelle von Information der Begriff Wissen verwendet (Mandl & Spada, 1988; Strube & Wender, 1993), um den komplexen und mehr aktiven Charakter der Gedächtnisinhalte hervorzuheben. Gegenstand der Kognitiven Psychologie sind somit kognitive Prozesse, die sich der direkten Beobachtung entziehen, sowie ebenfalls nur hypostasierbare kognitive Strukturen. Damit stellt sich die Frage, wie überhaupt sinnvolle, nachprüfbare Aussagen über Eigenschaften dieser inneren Strukturen und Abläufe gemacht werden können. "Developing a theory in cognitive psychology is much like developing a model for the working of the engine of a strange new vehicle by driving the vehicle, being unable to open it up to inspect the engine itself." (Anderson, 1980/1988). Deswegen kommt den Methoden zur Untersuchung dieses Gegenstands besondere Bedeutung zu. Die Probleme stellen sich weniger bei der Datenauswertung als vielmehr bei der Datenerhebung. Zwei zentrale abhängige Variablen in kognitionspsychologischen Experimenten sind "Leistung" und "Geschwindigkeit". Die Leistung kann z.B. darin bestehen, eine bestimmte Anzahl von Items einesIntelligenztests korrekt zu beantworten. Je schneller jemand diese Leistung erbringt, umso höher gewichtet man sie gewöhnlich. Das Verhältnis Leistung pro Zeiteinheit bildet einen möglichen Indikator kognitiver (Verarbeitungs-)Kapazität (Vernon, 1987).

Aus diesen Bemerkungen geht hervor, daß das zentrale Problem kognitionspsychologischer Methoden im Zugang zu ablaufenden Informationsverarbeitungsprozessen besteht. Je komplexer die untersuchten kognitiven Abläufe sind, umso schwieriger wird es, einerseits plausible Prozeßtheorien zu formulieren, andererseits aber auch empirische Prüfungsmöglichkeiten für eben jene hypostasierten Vorgänge aufzuzeigen. Daraus resultiert eine Forschungslage, in der zwar für viele Verarbeitungsprozesse hypothetische Ablaufmodelle in Form einfacher oder komplizierter Flußdiagramme vorgeschlagen werden; deren Prüfbarkeit liegt jedoch weit unter dem Grad der theoretischen Ausarbeitung.

In den nachfolgenden Abschnitten sollen einige der wichtigsten Verfahren exemplarisch vorgestellt werden. Einer Klassifikation von R. J. Sternberg (1977) folgend sollen die verschiedenen Methoden in solche für schnell ablaufende (Sekunden- und Millisekunden-Bereich) und solche für langsam ablaufende Prozesse (Minuten-Bereich) unterteilt werden. Zu den erstgenannten gehören Reaktions- und Entscheidungszeit-Messung sowie Blickbewegungsmessung, zu den letztgenannten verbale Daten (Selbstauskünfte, Befragung, Wissensdiagnostik) von Probanden (Pbn). Daneben gibt es eine Reihe von (indirekten) Verfahren zur Erfassung kognitiver Strukturen und längerwährender kognitiver Prozesse. Auch die Computersimulation muß als ein methodischer Zugang genannt werden. Dies ist nicht zu verwechseln mit dem in neuerer Zeit aufgekommenen Forschungsparadigma der Präsentation computersimulierter Szenarien ("Komplexes Problemlösen"; Übersicht: Frensch & Funke, 1995); hierbei handelt es sich um keine eigene Methode, sondern um eine besondere Art von Reizmaterial. Mit dem Verfahren der multinomialen Modellierung wird ein methodischer Zugang zu kognitiven Prozessen zu beschreiben sein, der hinsichtlich seines Differenziertheitsgrades zwischen der bloß verbalen Ebene der Theoriebildung auf der einen und Computersimulation auf der anderen Seite steht. Schließlich gibt es in den Neurowissenschaften in der jüngsten Zeit Zugänge zu kognitiven Prozessen, die in einer Sichtbarmachung ablaufender Hirnprozesse bestehen und kurz angesprochen werden.

Auf die im Bereich der Wahrnehmungspsychologie üblichen Methoden der Psychophysik geht ein separater Beitrag dieses Handbuchs ein (vgl. Irtel, in diesem Band). Die Informations-Integrations-Theorie, die bestimmte Annahmen über die Verknüpfung mehrerer Stimuli zu einem Urteil trifft (cognitive algebra, z.B. Verknüpfung von Höhe und Breite eines Rechtecks zu einem Flächeneindruck), bedient sich vor allem varianzanalytischer Techniken (vgl. Anderson, 1982) zur überprüfung der Additivitäts-, Multiplikations- oder Mittelungsannahmen. Darauf soll hier ebenfalls nicht eingegangen werden.

Neben den oben genannten Verfahren zur Datenerhebung können im Rahmen der Kognitiven Psychologie alle "Standard"-Methoden der Psychologie (z.B. Beobachtung, vgl. Roskam, in diesem Band; Experiment, vgl. Bredenkamp, in diesem Band) zum Einsatz kommen. Auch die bekannten Methoden der Datenauswertung unterscheiden sich bis auf wenige Ausnahmen (wie z.B. multinomiale Modellierung, siehe weiter unten) nicht in spezifischer Weise von anderen Disziplinen der Psychologie.

Reaktions- und Entscheidungszeitmessung

Annahmen über ablaufende Informationsverarbeitungsprozesse lassen sich durch die Messung von Reaktions- bzw. Entscheidungszeiten reaction time und choice reaction time; hier zusammengefaßt unter dem Oberbegriff der response time, RT) prüfen. Bei Vorliegen nur einer Antwortmöglichkeit spricht man von Reaktion, bei mehreren möglichen Alternativen von Entscheidung.

Die von Donders (1868) erstmals vorgeschlagene Subtraktionsmethode besteht darin, die RT bei zwei Aufgaben zu messen, die sich genau um einen hypothetischen Verarbeitungsprozeß (eine Stufe) unterscheiden. Die gemessene Differenz soll der Zeitdauer des zusätzlichen Prozesses entsprechen. Ob die zugrundeliegende Annahme der Additivität einzelner RT-Komponenten erfüllt ist, kann mit den bei Ashby (1982) dargestellten Methoden überprüft werden. Die additive-factors method, von S. Sternberg 1969 vorgeschlagen, mißt dagegen nicht die Zeitdauer einzelner Stufen, sondern prüft lediglich die Unabhängigkeit (Additivität) der kognitiven Faktoren (Komponenten), die die Reaktion/Entscheidung bedingen und aus denen sich die RT zusammensetzt. Sollen etwa Vergleiche von Gedächtnisinhalten vorgenommen werden und ist die RT für einen derartigen Vergleich bekannt, sollte bei Gültigkeit des Modells additiver Faktoren bei einer Erhöhung der Zahl durchzuführender Vergleiche (= Manipulation eines Faktors) die RT linear ansteigen. Der Vorteil von Sternbergs Methode besteht in der Annahme, daß experimentelle Manipulationen (z.B. Umfang der Itemmenge, aus der ein target identifiziert werden soll) jeweils separate Verarbeitungsstufen beeinflussen. Man ist im Unterschied zur Subtraktionsmethode nicht mehr gezwungen, postulierte Verarbeitungsstufen einzuschieben oder wegfallen zu lassen. Nicht zu übersehen sind allerdings Probleme bei der Anwendung des Modells additiver Faktoren (Verteilungsvoraussetzungen der ANOVA, Power-Probleme beim Test der Nullhypothese "Additivität}, etc.; vgl. hierzu genauer: Townsend & Ashby, 1983, p. 364 ff).

RT-Messungen haben bevorzugt bei der überprüfung von Gedächtnismodellen Anwendung gefunden. Annahmen über bestimmte Organisationsformen des semantischen Gedächtnisses legen etwa den Schluß nahe, daß eine Entscheidung wie "Ein Rotkehlchen ist ein Vogel" rascher gefällt werden sollte als ein Urteil über die Aussage "Ein Rotkehlchen ist ein Tier". Hier entspricht den RT-Unterschieden die unterschiedliche "Distanz" der Konzepte im semantischen Netzwerk. Auf diese Annahme zurückgreifend hat sich die RT-Messung auch als ein Verfahren zur Bestimmung von Prototypikalität angeboten: Für die typischen Exemplare einer Kategorie werden kurze, für untypische Exemplare längere RT erwartet. Jedoch hat man auch bei wohldefinierten Konzepten wie "geradzahlig" unterschiedliche RT für verschiedene Exemplare dieser Kategorie gefunden.

Auch im Zusammenhang mit Fragen nach der Art der internen Repräsentation räumlicher Objekte spielt die Methode der RT-Messung eine wichtige Rolle. Diesbezügliche Untersuchungen zur mentalen Rotation erbrachten etwa (vgl. Shepard & Metzler, 1971), daß bei der Beurteilung der Ineinanderüberführbarkeit zweier geometrischer Figuren die Entscheidungszeit linear abhängt vom Ausmaß der Rotation der beiden Körper gegeneinander.

Reaktionszeitexperimente können auch genutzt werden, Fragen über die Serialität oder Parallelität kognitiver Prozesse zu beantworten. So hat z.B. Meyer (1994) die von Townsend und Ashby (1983) entwickelte Logik des parallel-seriellen Testparadigmas auf die Bearbeitung von Items eines Konzentrationstests angewendet. Die Ergebnisse von Meyers Experiment sprechen deutlich für eine parallele Itembearbeitung (obwohl die Vpn dies anders einschätzen).

Blickbewegungsmessung

In seinem überblick über Zusammenhänge zwischen kognitiven Prozessen und Blickbewegungen kommt Winterhoff (1980) zu dem Schluß, daß die Erfassung von Blickbewegungsdaten zwar nicht den "Königsweg" zu kognitiven Prozessen darstellt, aber einen "möglichen und wichtigen Weg". Prämisse dieses methodischen Zugangs ist, daß insbesondere die Durchführung von macromovements (Sakkaden) auf bewußten Steuerungsvorgängen beruht, also eine kognitive Selektion des Sehfeldes darstellt. Bereits Ende des 19. Jahrhunderts wurde beobachtet, daß beim Lesen eines Textes keineswegs kontinuierlich, sondern sprunghaft vorgegangen wird. Insofern überrascht es wenig, daß sich mit dem Aufkommen entsprechender Hilfsmittel zur Registrierung von Blickbewegungen zunächst die experimentelle Leseforschung dieses Zugangs bedient hat. Hierbei kommen als abhängige Variablen die Anzahl der Fixationen pro Zeile, die Dauer der Fixationen sowie die Anzahl der Regressionen auf frühere Textpassagen in Frage. Unabhängige Variable ist dabei z.B. die Schwierigkeit des präsentierten Textes. Andere Untersuchungen (Rayner, 1975) beschäftigen sich mit dem Umfang der beim Lesen aufnehmbaren Zeichen. Dabei stellte sich heraus, daß man ca. zehn Zeichen links und rechts vom Fixationspunkt verarbeiten kann, pro Fixation also durchschnittlich drei Worte. In neuerer Zeit wird die Blickbewegungsmessung verstärkt auch im Bereich der Problemlöseforschung genutzt. Diese zusätzliche Datenquelle bietet die Möglichkeit zu bestimmen, welche Informationen zu welchem Zeitpunkt (im Verlauf des Problemlösevorganges) aufgenommen wurden, und ermöglicht die überprüfung alternativer Interpretationen experimentell erzeugter Effekte.

Während frühe apparative Einrichtungen zur Erfassung von Sakkaden für die Pbn wie für die Untersucher nicht unerhebliche Belastungen mit sich brachten (Fixation des Kopfes, Biß in ein biteboard; mühselige Handauswertung umfänglichen Datenmaterials), sind moderne computergesteuerte online-Verfahren etwa nach dem Prinzip der Corneal-Reflektion non-reaktive Meßverfahren mit hoher Genauigkeit. (Non-Reaktivität bedeutet, daß der Meßvorgang als solcher keinen Einfluß auf die Messung nimmt). Für die Erfassung von Micro-Sakkaden bietet sich das Elektro-Okulogramm (EOG) an, das Potentialschwankungen zwischen Retina und Cornea mit hoher zeitlicher Auflösung erfaßt. Auf die technischen Aspekte dieser Art von Datenerhebung soll jedoch nicht weiter eingegangen werden (vgl. Young & Sheena, 1975).

Auch die Pupillometrie ist in diesem Zusammenhang von Interesse. Beatty (1982) etwa demonstriert mit seinen Untersuchungen, wie sich kognitive Beanspruchung in einer reliabel erfaßbaren, kurzfristigen Erweiterung des Pupillendurchmessers niederschlägt.

Selbstauskünfte (verbale Daten, Befragungen, Wissensdiagnostik)

Wie in vielen Bereichen der Psychologie gilt auch für das Gebiet der Kognitionsforschung, daß sich Methoden, die auf Selbstauskünften des Pbn beruhen, großer Beliebtheit erfreuen. Ein bekannter Zugang zu inneren Prozessen besteht in der Methode lauten Denkens. Hierbei wird ein Pb aufgefordert, die während einer Aufgabenbearbeitung ablaufenden Gedanken zu verbalisieren. Varianten dieser Technik existierten schon Ende des 19. Jahrhunderts: Introspektion (mit der speziellen Variante "experimenteller Selbstbeobachtung" und Retrospektion gehörten zum damaligen Repertoire der verschiedenen Schulen, zwischen denen keineswegs Einigkeit bezüglich der zu verwendenden Methodik bestand. So haben sich etwa Bühler (1908) als Vertreter der Selbstbeobachtung und Wundt (1908) als deren Gegner lebhaft gestritten, eine Diskussion, deren moderne Variante durch Arbeiten von Nisbett und Wilson (1977) bzw. Ericsson und Simon (1980, 1984) dargestellt wird.

Nisbett und Wilson (1977) vertreten den Standpunkt, daß höhere kognitive Prozesse der Introspektion nicht zugänglich seien und Auskünfte der Pbn über Ursachen, Wirkungen sowie Ursache-Wirkungs-Zusammenhänge lediglich auf der Basis impliziter Kausalmodelle getroffen werden. In den Fällen, wo diese Kausalmodelle den Tatsachen entsprechen, käme man fälschlich zu dem Schluß, den Pbn seien diese Vorgänge zugänglich gewesen. Die von Ericsson und Simon (1980) vorgebrachten Gegenargumente versuchen, diese Sichtweise zu entschärfen, indem sie Bedingungen nennen, unter denen Verbalisationen kognitive Abläufe nicht beeinflussen. Der Schluß, daß verbale Daten zwar heuristisch fruchtbar sein können, die mit der Erfassung verbundenen Beeinträchtigungen jedoch nahelegen, andere, weniger reaktive Verfahren zu verwenden, gilt daher nur für solche Prozesse, in denen Pbn per Instruktion ihre Aufmerksamkeit auf Vorgänge richten müssen, die normalerweise nicht von ihnen beachtet werden. Allerdings schützen die Gegenargumente von Ericsson und Simon (1980) nicht vor dem Einwand, daß Selbstberichte nur die implizite Theorie über die eigenen kognitiven Prozesse reflektieren, nicht aber die Prozesse selbst (vgl. Gopnik, 1993; für eine Beachtung der first-person experience argumentiert Searle, 1992).

Ein Verfahren zur Diagnostik struktureller Merkmale von Wissen ist der "object sorting test" (OST), bei dem ein Pb vorgegebene oder selbst zusammengestellte Konzepte eines Realitätsbereichs nach frei wählbaren Kriterien in (überlappende) Gruppen zusammenfassen soll. Aus den Gruppierungsdaten lassen sich Indikatoren für "kognitive Komplexität" ableiten (vgl. Hussy, 1977). Da lediglich strukturelle Merkmale abgebildet werden, hat dieses Verfahren nur begrenzten Stellenwert bei der Beantwortung der Frage, wie ein Gegenstandsbereich individuell repräsentiert ist. Scheele und Groeben (1984) haben mit der "Heidelberger Struktur-Lege-Technik" (SLT) ein Verfahren entwickelt, bei dem im Dialog zwischen Pb und Untersucher die Struktur eines Gegenstandsbereichs "rekonstruiert" wird (die Autoren sprechen von "Subjektiven Theorien"). Durch die enge Interaktion von Pb und Untersucher, die das Verfahren vorschreibt, und durch die damit verbundene Methodik der "kommunikativen Validierung" liefert auch dieses Instrument keineswegs befriedigende Daten, zumal keine Quantifizierung bestimmter Aspekte einer Subjektiven Theorie vorgesehen ist.

Wissensdiagnostik hat sich im Kontext von Expertensystemen (vgl. Hayes-Roth, Waterman & Lenat, 1983) als bedeutsam herausgestellt. Bei Expertensystemen handelt es sich um den Versuch, Struktur- und Regelwissen von Experten auf Computersysteme zu übertragen. Um diesen Transfer zu leisten, bemühen sich "Wissensingenieure" um eine möglichst korrekte Abbildung. Die dabei eingesetzten Verfahren der knowledge elicitation befinden sich noch im Entwicklungsstadium, aber es ist abzusehen, daß der Zugang zu Expertenwissen auf verschiedenen Wegen erfolgen muß (direkte Befragung, Beobachtung von Handlungen, Sammlung von Beispielsfällen, etc.). Unter einer Anwendungsperspektive wird diesem Gebiet in nächster Zeit sicher die größte Bedeutung zufallen, da sich die Computer der fünften Generation durch ihren Bestand an und Umgang mit Wissen auszeichnen sollen ("intelligente Roboter"). Hinsichtlich der Leistungsfähigkeit bisheriger Systeme ist allerdings Skepsis angebracht (vgl. Streitberg, 1988).

Ein relativ junger Ansatz zur Wissensdiagnostik besteht in der Formalisierung von Wissensräumen (vgl. Falmagne, Koppen, Villano, Doignon & Johannesen, 1990). Ein derartiges Vorgehen beschreibt die Struktur von Fragen und Antworten in einer Wissensdomäne und stellt somit eine Theorie möglicher Wissenszustände dar. Problematisch daran ist, daß die Festlegung einer Ordnungsstruktur ziemlich willkürlich erscheint. Verglichen zu psychometrischen Zugängen, die die Antwortleistung auf bestimmte Fragen von postulierten Traits abhängig machen, ist dieser Ansatz jedoch in seiner Bezugnahme auf Eigenschaften des Wissensraums eine interessante wissensdiagnostische Alternative.

Sequentielle Aufgabenstellungen

Eine in der Denkpsychologie gebräuchliche Methodik zur Identifikation von kognitiven Prozessen besteht in der Verwendung sequentiell zu bearbeitender Problemtypen. Hierbei tritt die Lösung nicht nach einem einzigen Schritt ein (wie z.B. bei Einsichtsproblemen aus gestaltpsychologischer Tradition), sondern erst nach einer Reihe von Zwischenschritten. Typisches Beispiel für ein derartiges Transformationsproblem ist der "Turm von Hanoi". Der Pb hat drei Stifte vor sich, wobei auf einem dieser Stifte eine bestimmte Anzahl von Scheiben unterschiedlichen Durchmessers aufgesteckt sind. Die Aufgabe besteht darin, die vorgegebene Anordnung der Scheiben von dem vorgegebenen Stift auf einen anderen Stift zu bewegen unter Einhaltung folgender Regeln: (1) es darf pro Zeitpunkt nur eine Scheibe verändert werden, (2) die Durchmesser aufeinanderliegender Scheiben müssen nach oben hin abnehmen, (3) es sollen möglichst wenig Züge gemacht werden. Durch diese Art der Aufgabenstellung wird eine sequentielle Bearbeitung erzwungen, aus der sich etwa Hinweise über die Art der verwendeten Strategien gewinnen lassen (z.B. Sydow, 1970).

Ein anderes Verfahren besteht darin, vom Pbn eine zunächst unbekannte Folge von Zeichen vorhersagen zu lassen und die möglichen Prozesse der Informationsreduktion infolge Redundanz der Zeichenfolge zu untersuchen (vgl. Shannon, 1951). Hier kann man die Auswirkungen unterschiedlicher Informationsgehalte auf die Vorhersageleistung feststellen, also Kapazitätsaspekte der Informationsverarbeitung beleuchten. Mit dem normativen Modell der Informationstheorie liegt zugleich ein Bezugsrahmen vor, an dem menschliche Informationsreduktion gemessen werden kann (siehe als Beispiel für dieses Verfahren: Hussy, 1975).

Computersimulation kognitiver Prozesse

Seit der Verfügbarkeit von Computern in psychologischen Labors gehört die Simulation kognitiver Prozesse ebenfalls zu einer speziellen Methode der Kognitiven Psychologie. Das prinzipielle Vorgehen besteht in der möglichst exakten "Nachbildung" der kognitiven Abläufe im menschlichen Individuum bei der Bearbeitung eines gegebenen Problems mithilfe eines Computerprogramms ("kognitive Modellierung"). Wie Ueckert (1983) feststellt, handelt es sich hierbei um den Versuch, durch die Erstellung eines Simulationsprogramms theoretische Annahmen über den Ablauf innerer Prozesse transparent zu machen. Solche Annahmen können z.B. in Form von Produktionssystemen formuliert werden; dabei handelt es sich um Regeln, deren Konditionalteil Bedingungen spezifiziert, bei deren Erfüllung die im Aktionsteil genannten Aktionen ausgeführt werden. Da mit den Aktionen neue Bedingungen geschaffen werden, kann sich das Regelsystem prozeßhaft fortentwickeln (vgl. Anderson, 1993).

Gregg und Simon (1967) haben am Beispiel eines Simulationsprogramms zum Konzepterwerb folgende Vorteile dieser Methodik demonstrieren wollen: (1) Schutz vor Inkonsistenzen, (2) Verdeutlichung von ansonsten impliziten Annahmen, (3) Vermeidung allzu flexibler Theorien, die auf jeden Datensatz passen, (4) Elimination unprüfbarer Theorien sowie (5) Notwendigkeit von Angaben zur Enkodierung und Repräsentation. Die anfängliche Euphorie gegenüber dieser Methodik ist inzwischen nüchterner Skepsis gewichen. Neches (1982) macht unter Bezugnahme auf die eben genannten Argumente von Gregg und Simon (1967) auf sechs Probleme aufmerksam: (1) die formale Beschreibung eines Modells garantiere noch nicht dessen Verständlichkeit (jedenfalls nicht, solange nicht alle Details mitgeteilt werden), (2) häufig müßten für die Implementation eines Programms vereinfachende Annahmen getroffen werden, (3) oft seien die Programme auf ausgewählte Beispielfälle zugeschnitten, (4) die Datenbasen für die Programme enthielten schon bestimmte, psychologisch nicht unbedingt sinnvolle Strukturen, (5) bereitgestellte Subroutinen enthielten nichtnumerische Parameter und versetzten das Programm in die Lage, mit beliebigen Daten umzugehen, (6) der Programmierer halte Daten oder Prozeduren zurück, die dem Programm Schwierigkeiten bereiten.

Die Annahme, daß mit der Methode der Computersimulation klarere psychologische Modelle entwickelt würden, hat sich nach Neches (1982) nicht bestätigt. Auch der Stellenwert eines lauffähigen Programms ist umstritten, können doch eine Reihe verschiedener Modelle empirisch identische Resultate liefern: "A computer simulation does not necessarily guarantee that a theory is more consistent or comprehensible. Nor does a program's successful performance guarantee that the theory is generalizable, or even that the causes for the success are those predicted by the theory." (Neches, 1982, p. 89).

Im Bereich der Künstlichen Intelligenz ist die Computer-Metapher (das Bild vom Menschen als Maschine) selbstverständlich (vgl. Johnson-Laird, 1988). Die zentrale Annahme der KI-Forschung wird etwa von Charniak und McDermott (1985, p. 6) auf folgende Formel gebracht: "What the brain does may be thought of at some level as a kind of computation." Hier kümmert man sich im Gegensatz zur Computersimulationsforschung wenig darum, ob auch andere Programme ähnliche oder gar gleiche Resultate liefern. Wesentlich ist, daß mit der Simulation eine entsprechende Leistung analog zur menschlichen Fähigkeit zustandekommt. Der Entwurf von Schachprogrammen aus der Sicht der KI-Forschung bedeutet daher das Erbringen einer Leistung, wie sie einem Großmeister entsprechen mag. Welche Hilfsmittel hierbei heranzuziehen sind (z.B. bezüglich des verfügbaren Speichervolumens), interessiert dabei weniger. Insbesondere stört es nicht, wenn dabei Ressourcen in Anspruch genommen oder Strategien verwendet werden, wie sie bei Menschen sicher nicht anzutreffen sind. Dennoch erwarten manche, daß auch bei dieser Forschungsstrategie für die Kognitive Psychologie fruchtbare Erkenntnisse resultieren (vgl. jedoch Sharkey & Pfeifer, 1984).

Während in frühen Computersimulationen bevorzugt Produktionssysteme mit klar definierten Regelsätzen zum Einsatz kamen (vgl. Anderson, 1993), treten in den 80er Jahren konnektionistische Modellierungen stärker in den Vordergrund (Hintzman, 1990; McClelland, 1988). Diese sind trotz hoher Leistungen auf der Performanzseite wegen ihrer vielfach gegebenen Intransparenz, aber auch aus prinzipiellen Gründen kritisiert worden (vgl. Fodor & Pylyshyn, 1988; Levelt, 1991; McCloskey, 1991).

Multinomiale Modellierung

Riefer und Batchelder (1988) stellen das Verfahren der multinomialen Modellierung dar als ein Bindeglied zwischen einerseits strengen theoretischen Annahmen (wie z.B. der kognitiven Architektur ACT-R von Anderson, 1993) und andererseits eher empiristisch orientierten Datenauswertungen (wie z.B. mittels Varianzanalyse).

Eine Kernannahme der multinomialen Modellierung besteht darin, daß einer diskreten, endlichen Menge kognitiver Zustände ganz bestimmte beobachtbare Verhaltensweisen zugeordnet werden können. Während dabei die Zuordnung von Verhaltensweisen zu kognitiven Prozessen oder Zuständen eindeutig ausfällt, ist umgekehrt die Zuordnung von kognitiven Zuständen zu Verhaltensweisen zumeist nicht eindeutig, weil die meisten Verhaltensweisen aus unterschiedlichen kognitiven Prozessen erwachsen können. So kann z.B. eine richtige Antwort in einem Test durch Wissen (Zustand 1) oder durch Raten (Zustand 2) zustandekommen. Aus den empirisch leicht erfaßbaren Verhaltensklassen müssen dann die Parameter eines angenommenen Modells geschätzt werden. Solche Modelle werden oft als "multinomiale Verarbeitungsbäume} bezeichnet, in denen die verschiedenen Kombinationsmöglichkeiten der Parameter mit den empirisch beobachtbaren Verhaltensklassen verbunden werden. Die in den Modellen enthaltenen und zu schätzenden Parameter werden mit Maximum-Likelihood-Verfahren ermittelt, anschließend wird die Modellanpassung an die Daten geprüft. Neben Anpassungstests erfolgt die Prüfung von Modellannahmen auch durch Experimente, deren Manipulationen gezielt auf einzelne Parameter des Modells gerichtet sind. Verhalten sich diese hypothesenkonform, nimmt man derartige Resultate als Bestätigung der Modellannahmen.

Eine Stärke dieses Vorgehens liegt in der Separierung verschiedener kognitiver Prozesse, wie dies z.B. durch die Bestimmung der unterschiedlichen Anteile von Prozessen während der storage- und retrieval-Phase beim Gedächtnisabruf betrieben wird (vgl. Batchelder & Riefer, 1986). Problematisch ist die geforderte Unabhängigkeit der einzelnen Antworten einer Vp über mehrere aufeinander folgende Durchgänge. Außerdem führen bei großen Stichproben bereits kleine Modellabweichungen zu einem u.U. voreiligen Scheitern des Modellgeltungstests. Nach Riefer und Batchelder (1988, p. 325) sollte man in solchen Fällen, in denen ein Modell zwar deskriptiv gut zu den Daten paßt, aber im Modellgeltungstest scheitert, dennoch mit dem gescheiterten Modell weiterarbeiten. Zudem suggerieren die "Bäume" einen sequentiellen Prozeß, der nicht notwendig mit der faktischen Sequenz kognitiver Prozesse übereinstimmen muß: Der Modellgeltungstest ist nur sensitiv für die Wahrscheinlichkeit einer bestimmten Kombination kognitiver Zustände, nicht aber für die Wahrscheinlichkeit einer bestimmten Sequenz dieser Zustände. Eine Parameterschätzung auf Individuenebene ist in den veröffentlichten Modellen auch nicht zu finden. Trotz dieser kritischen Bemerkungen hat sich das beschriebene Verfahren bislang als flexibles Instrument im kognitionspsychologischen Methodenarsenal bewährt (vgl. Bredenkamp & Erdfelder, im Druck).

Dissoziationsverfahren

Dissoziationsstudien sind vor allem im neuropsychologischen Kontext als Untersuchungsmethode vorgeschlagen und erfolgreich eingesetzt worden (McCarthy & Warrington, 1990). Dabei werden die Zusammenhänge zwischen zwei verschiedenen kognitiven Anforderungen verglichen. Stellt man z.B. fest, daß eine Person ein komplexes System gut steuern kann, aber kaum Wissen darüber besitzt (so Berry & Broadbent, 1984), spricht man von einer Dissoziation zwischen beiden Leistungen (übersicht bei Hintzman, 1990). Gibt es nicht nur Pbn, die $X$ können, nicht aber $Y$, sondern auch solche, die $Y$ können, nicht aber $X$, spricht man von doppelter Dissoziation. Vor allem in neuropsychologischen Untersuchungen schließt man aus doppelten Dissoziationen, daß die Leistungen $X$ und $Y$ jeweils unterschiedliche kognitive Prozesse ansprechen.

Das Verfahren der Prozeßdissoziation ist in der neueren gedächtnispsychologischen Literatur von Jacoby (1991) vorgeschlagen worden, um Probleme beim Vergleich direkter und indirekter Gedächtnismessungen (vgl. Richardson-Klavehn & Bjork, 1988) zu überwinden. Die Erfassung automatischer und kontrollierter Anteile bei Erinnerungsleistungen erfolgt in diesem Ansatz durch den Vergleich opponenter Teilaufgaben an ein und demselben Item: Pbn sollen z.B. einen Wortstamm mit einem in einer vorangegangenen Liste dargebotenen Wort ergänzen oder, erinnern sie dies nicht, dem ersten Wort, das ihnen einfällt (Inklusionsaufgabe); alternativ sollen sie eine Ergänzung mit einem Wort vornehmen, das vorher nicht dargeboten wurde (Exklusionsaufgabe). Bei kontrollierter korrekter Erinnerung werden in der Inklusionsaufgabe alle alten Wörter ergänzt, bei der Exklusionsaufgabe dagegen nur neue Wörter. Bei unkontrollierter, automatisch ablaufender Erinnerung ist kein Leistungsunterschied zwischen beiden Aufgaben zu erwarten. Für die vergleichende Analyse bewußter und unbewußter Anteile an Erinnerungsleistungen scheint dieses Verfahren alternativen Vorgehensweisen deutlich überlegen.

Bildgebende Verfahren des Gehirns

Im Bereich der kognitiven Neurowissenschaften haben in den letzten Jahren technische Fortschritte zu einem enormen Aufschwung sogenannter bildgebender Verfahren geführt. Diese Verfahren lassen anatomische und funktionale Aspekte des gesunden wie kranken Gehirns in einer nie geahnten Deutlichkeit sichtbar werden. Neben der inzwischen schon fast klassischen Computertomographie (CT) mit Röntgen-Strahlen (statische Darstellung der Gewebestrukturen) sind inzwischen auch Positronen-Emissions-Tomographie (PET; dynamische Durchblutungsmessung anhand der Konzentration rasch zerfallender Radioisotope, die vor Aufgabenbearbeitung injiziert werden müssen), Kernspin-Tomographie (NMR, nuclear magnetic resonance; umgetauft in MRI, magnetic resonance imaging; fast risikolose Messung des Sauerstoffverbrauchs durch änderung der Kernspinresonanz in einem Hochfrequenz-Magnetfeld) und Mehrkanal-Magnetenzephalographie (MET; Erfassung der von der Hirnaktivität resultierenden magnetischen Felder) zu zwar äußerst kostspieligen, aber dafür auch hochinformativen Zugängen zu Gehirnprozessen geworden. Bei der Kartierung von kognitiven Funktionen mittels PET wird z.B. analog zum Donder'schen Subtraktionsverfahren vorgegangen: Die mittels PET meßbare Hirndurchblutung wird vor und während einer ganz spezifischen kognitiven Aktivität erfaßt, aus der Differenz ergeben sich die besonders aktiven Hirnareale für die spezifische Aktivität.

Posner und Raichle (1994) sehen mit diesen Verfahren, die mit zunehmend höheren räumlichen und zeitlichen Auflösungsgraden operieren, eine Flut von Informationen auf Kognitionswissenschaftler zukommen, die sich derzeit noch nicht einordnen lassen, aber sicher unser Verständnis von den materiellen Grundlagen kognitiver Prozesse erhöhen werden.

Weiterführende Literatur

Eine Einführung in die Grundgedanken von Produktionssystemen am Beispiel seiner Architektur ACT-R zusammen mit einer Software zur Erstellung eigener Modelle gibt Anderson (1993). Charniak und McDermott (1985) bieten eine übersicht über verschiedene Anwendungsfelder der Künstlichen Intelligenz (Sehen, Sprachverarbeitung, Suchverfahren, induktive und deduktive Prozesse, Handlungsplanung, Expertensysteme). Eine übersicht über verschiedene Verfahren der Datengewinnung im Bereich der Wissenspsychologie ist bei Kluwe (1988) zu finden. Er geht auf drei Bereiche ein: (1) Externalisierung von aktuell eingesetztem Wissen, (2) Mitteilung vorhandenen Wissens, (3) Aktivierung spezifischer Wissensstrukturen durch besonderes Reizmaterial. Die Edition von Puff (1982) enthält vierzehn Beiträge über Detailprobleme gedächtnispsychologischer Meßmethoden (Reproduktion, Wiedererkennen, Bildgedächtnis, semantisches Gedächtnis, Textverstehen, Wissensgebrauch). Rumelhart und McClelland (1986) sowie McClelland und Rumelhart (1986, 1989) stellen die Grundideen konnektionistischer Modelle dar und liefern zugleich einfach zu handhabende Software, mittels derer eigene Netzwerke konstruiert werden können. Townsend und Ashby (1983) entwickeln in ihrem Buch grundlegende Gedanken zur stochastischen Modellierung von elementaren Prozessen. Dabei werden auch Prüfungsmöglichkeiten paralleler wie serieller Verarbeitungsmodelle behandelt. Eine immer noch lesenswerte Edition mit zehn Beiträgen zu Grundlagen- und Anwendungsproblemen der RT-Messung stammt von Welford (1980).

Literaturverzeichnis

Anderson, J. R. (1980). Cognitive psychology and its implications. San Francisco, CA: Freeman. (Deutsche übersetzung: Kognitive Psychologie. Eine Einführung. Heidelberg: Spektrum der Wissenschaft Verlagsgesellschaft, 1988).

Anderson, J. R. (1993). Rules of the mind. Hillsdale, NJ: Erlbaum.

Anderson, N. H. (1982). Methods of information integration theory. New York: Academic Press.

Ashby, F. G. (1982). Testing the assumptions of exponential additive reaction time models. Memory & Cognition, 10, 125-134.

Batchelder, W. H. & Riefer, D. M. (1986). The statistical analysis of a model for storage and retrieval processes in human memory. British Journal of Mathematical and Statistical Psychology, 39, 129-149.

Beatty, J. (1982). Task-evoked pupillary responses, processing load, and the structure of processing resources. Psychological Bulletin, 91, 276-292.

Berry, D. C. & Broadbent, D. E. (1984). On the relationship between task performance and associated verbalizable knowledge. Quarterly Journal of Experimental Psychology, 36 A, 209-231.

Bredenkamp, J. & Erdfelder, E. (im Druck). Methoden der Gedächtnispsychologie. In D. Albert & K.-H. Stapf (Hrsg.), Gedächtnis (= Enzyklopädie der Psychologie, Themenbereich C, Serie 2, Band 4). Göttingen: Hogrefe.

Bühler, K. (1908). Antwort auf die von W. Wundt erhobenen Einwände gegen die Methode der Selbstbeobachtung an experimentell erzeugten Erlebnissen. Archiv für die Gesamte Psychologie, 12, 93-122.

Charniak, E. & McDermott, D. (1985). Introduction to artificial intelligence. Reading: Addison-Wesley.

Donders, F. C. (1868) Over de snelheid van psychische processen. Onderzoekingen gedaan in het Physiologisch Laboratorium der Utrechtsche Hoogeschool, Twede reeks, II, 92-120. (Englischer Nachdruck in Acta Psychologica, 30, 1969, 412-431).

Ericsson, K. A. & Simon, H. A. (1980). Verbal reports as data. Psychological Review, 87, 215-251.

Ericsson, K. A. & Simon, H. A. (1984). Verbal reports as data. London: MIT Press.

Falmagne, J.-C., Koppen, M., Villano, M., Doignon, J.-P. & Johannesen, L. (1990). Introduction to knowledge spaces: How to build, test, and search them. Psychological Review, 97, 201-224.

Fodor, J. & Pylyshyn, Z. (1988) Connectionism and cognitive architecture: A critical analysis. Cognition, 28, 3-71.

Frensch, P. A. & Funke, J. (Eds.) (1995). Complex problem solving: The European Perspective. Hillsdale, NJ: Erlbaum.

Gopnik, A. (1993). How we know our minds: The illusion of first-person knowledge of intentionality. Behavioral and Brain Sciences, 16, 1-14.

Gregg, L. W. & Simon, H. A. (1967). Process models and stochastic theories of simple concept formation. Journal of Mathematical Psychology, 4, 246-276.

Hayes-Roth, F., Waterman, D. A. & Lenat, D. B. (Eds.) (1983). Building expert systems. Reading: Addison-Wesley.

Hintzman, D. L. (1990). Human learning and memory: Connections and dissociations. Annual Review of Psychology, 41, 109-139.

Hussy, W. (1975). Information processing and human sequential predictive behavior. Acta Psychologica, 39, 351-367.

Hussy, W. (1977). Ein Beitrag zur Operationalisierung und Quantifizierung kognitiver Komplexität. Archiv für Psychologie, 129, 288-301.

Jacoby, L. L. (1991). A process dissociation framework: Separating automatic from intentional uses of memory. Journal of Memory and Language, 30, 513-541.

Johnson-Laird, P. N. (1988). The computer and the mind. An introduction to cognitive science. Cambridge: Harvard University Press.

Kluwe, R. H. (1988). Methoden der Psychologie zur Gewinnung von Daten über menschliches Wissen. In H. Mandl & H. Spada (Eds.), Wissenspsychologie (pp. 359-385). München: Psychologie Verlags Union.

Levelt, W. J. M. (1991). Die konnektionistische Mode. Sprache & Kognition, 10, 61-72.

Mandl, H. & Spada, H. (Eds.) (1988). Wissenspsychologie. München: Psychologie Verlags Union.

McCarthy, R. A. & Warrington, E. K. (1990). Cognitive neuropsychology. A clinical introduction. San Diego: Academic Press.

McClelland, J. L. (1988). Connectionist models and psychological evidence. Journal of Memory and Language, 27, 107-123.

McClelland, J. L. & Rumelhart, D. E. (Eds.) (1986). Parallel distributed processing. Explorations in the microstructure of cognition. Volume 2: Psychological and biological models. Cambridge: MIT Press.

McClelland, J. L. & Rumelhart, D. E. (1989). Explorations in parallel distributed processing. A handbook of models, programs, and exercises. Cambridge: MIT Press.

McCloskey, M. (1991). Networks and theories: The place of connectionism in cognitive science. Psychological Science, 2, 387-395.

Meyer, M. C. A. (1994). Serielle versus parallele Verarbeitung visueller Information. Eine experimentelle Untersuchung am Beispiel eines Konzentrationstests. Bonn: Holos.

Neches, R. (1982). Simulation systems for cognitive psychology. Behavior Research Methods & Instrumentation, 14, 77-91.

Nisbett, R. E. & Wilson, T. D. (1977). Telling more than we can know: Verbal reports on mental processes. Psychological Review, 84, 231-259.

Posner, M. I. & Raichle, M. E. (1994). Images of mind. New York: Freeman and Company.

Puff, C. R. (Ed.) (1982). Handbook of research methods in human memory and cognition. New York: Academic Press.

Rayner, K. (1975). The perceptual span and peripheral cues in reading. Cognitive Psychology, 7, 65-81.

Richardson-Klavehn, A. & Bjork, R. A. (1988). Measures of memory. Annual Review of Psychology, 39, 475-543.

Riefer, D. M. & Batchelder, W. H. (1988). Multinomial modeling and the measurement of cognitive processes. Psychological Review, 95, 318-339.

Rumelhart, D. E. & McClelland, J. L. (1986). Parallel distributed processing. Explorations in the microstructure of cognition. Volume 1: Foundations. Cambridge: MIT Press.

Scheele, B. & Groeben, N. (1984). Die Heidelberger Struktur-Lege-Technik (SLT). Eine Dialog-Konsens-Methode zur Erhebung Subjektiver Theorien mittlerer Reichweite. Weinheim: Beltz.

Searle, J. R. (1992). The rediscovery of mind. Cambridge: MIT Press.

Shannon, C. E. (1951). Prediction and entropy of printed English. Bell System Technical Journal, 30, 50-64.

Sharkey, N. E. & Pfeifer, R. (1984). Uncomfortable bedfellows: Cognitive psychology and AI. In M. Yazdani & A. Narayanan (Eds.), Artificial intelligence: Human effects (pp. 163-172). Chichester: Harwood.

Shepard, R. N. & Metzler, J. (1971). Mental rotation of three-dimensional objects. Science, 171, 701-703.

Sternberg, R. J. (1977). Intelligence, information processing and analogical reasoning: The componential analysis of human abilities. Hillsdale: Erlbaum.

Sternberg, S. (1969). The discovery of processing stages: Extensions of Donders' method. Acta Psychologica, 30, 276-315.

Streitberg, B. (1988). On the nonexistence of expert systems: Critical remarks on Artificial Intelligence in statistics. Statistical Software Newsletter, 14, 55-62.

Strube, G. & Wender, K.-F. (Eds) (1993). The cognitive psychology of knowledge. Amsterdam: Elsevier.

Sydow, H. (1970). Zur metrischen Erfassung von subjektiven Problemzuständen und zu deren Veränderung im Denkprozeß I. Zeitschrift für Psychologie, 177, 145-198.

Townsend, J. T. & Ashby, F. G. (1983). The stochastic modeling of elementary psychological processes. Cambridge: Cambridge University Press.

Ueckert, H. (1983). Computer-Simulation. In J. Bredenkamp & H. Feger (Eds.), Hypothesenprüfung (= Enzyklopädie der Psychologie; Thembereich B, Serie I, Band 5, S. 530-616). Göttingen: Hogrefe.

Vernon, P. A. (Ed.) (1987). Speed of information-processing and intelligence. Norwood: Ablex.

Welford, A. T. (Ed.) (1980). Reaction times. New York: Academic Press.

Winterhoff, P. (1980). Zum Zusammenhang von Blickbewegungen und sprachlich-kognitiven Prozessen - ein überblick. Psychologische Rundschau, 31, 271-276.

Wundt, W. (1908). Kritische Nachlese zur Ausfragemethode. Archiv für die Gesamte Psychologie, 12, 445-459.

Young, L. R. & Sheena, D. (1975). Survey of eye-movement recording methods. Behavior Research Methods & Instrumentation, 7, 397-429.

 
Zum Seitenanfang Top
Zuletzt bearbeitet am 26.11.2001 von JF.