* PROBLEM DES DEDUKTIVISMUS *

 

aus:
Stangl, Werner (1989).
Das neue Paradigma der Psychologie.
Die Psychologie im Diskurs des Radikalen Konstruktivismus.
Braunschweig: Friedr. Vieweg & Sohn.
ISBN: 3-528-06342-4

 

In diesem Abschnitt wird dem deduktivistischen Aspekt des Erkenntnisprozesses nachgegangen, also jenem, der bereits von vorhandenen theoretischen Strukturen ausgeht. Während der induktivistische Zweig des Erkenntnisprozesses jenen Bereich wissenschaftlichen Handelns betrifft, mit dessen Hilfe man zu Erkenntnis gelangt, betrifft der deduktivistische jenen, mit dem man die Struktur des Wissens zur Erklärung und zur Prognose verwenden kann. Man könnte vereinfachend die induktivistische Strategie auch dadurch kennzeichnen, daß mit ihr zunächst eine Beschreibung der "Realität" versucht wird, während die deduktivistische vornehmlich auf Erklärung und Prognose gerichtet ist. Da in den Naturwissenschaften weitgehend abgeklärt ist, daß eine induktive Strategie zur Erlangung von sicherem Wissen erkenntnistheoretisch nicht realisierbar ist (s.o.), versucht man auf deduktivem Wege das - auf weitgehend ungeklärte Art zustandegekommene - Gesetzeswissen durch Erprobung zu vermehren bzw. abzusichern, d.h., einen Ersatz für die eigentlich notwendige Induktion zu finden.

Zur Grundposition des Deduktivismus läßt sich kurz zusammengefaßt folgendes Bild entwerfen: "'Aus der vorläufig unbegründeten Antizipation, dem Einfall, der Hypothese, dem theoretischen System, werden auf logisch-deduktivem Weg Folgerungen abgeleitet; diese werden untereinander und mit anderen Sätzen verglichen, indem man feststellt, welche logischen Beziehungen … zwischen ihnen bestehen.' Der Fortschritt der Wissenschaft, das 'Wachstum unseres Wissens' beginnt also mit dem schöpferischen Einfall, dem Entwurf einer Hypothese oder Theorie. Dafür, welche Hypothesen wir in einer gegebenen Wissenssituation aufstellen sollen, gibt es für Popper, ebenso wie für Carnap, keine Regeln: Die Hypothesen ergeben sich nicht aus dem Erfahrungswissen, aus Beobachtungen, sondern sie stellen Fragen an die Natur dar, die erst eigentlich systematische Erfahrung ermöglichen: Beobachtungen ohne Hypothesen sind blind, erst eine Hypothese ermöglicht sinnvoll organisierte Experimente" (V. KUTSCHERA 1972, S. 456; in Zusammenfassung verschiedener Aussagen Poppers und Carnaps).

In der deduktiv-kausalen Argumentationsrichtung, die aber notwendigerweise immer zugleich eine nomologisch-kausal-deduktive Strategie ist (vgl. V. KUTSCHERA 1972, S. 369), ist das zentrale Paradigma der heutigen Psychologie, das bisher als empiristisch bezeichnet wurde, verankert. Allerdings ist diese Form des Beweisschlusses genauso umstritten wie der Induktivismus, wobei sich diese Strittigkeit vor allem aus der Gegenstandsbestimmung einer Human- bzw. Sozialwissenschaft ergibt. Während er für die eigentlichen Naturwissenschaften vermutlich den adäquaten Zugang zu ihrer "Realität" darstellt, ist er für die Psychologie zumindest fraglich. Dies allein auch deshalb, da die Psychologie sich einen naturwissenschaftlichen Mantel umgehängt hat, ohne darauf zu achten, ob er ihr überhaupt paßt. Dabei läßt sich darüber streiten, ob er ihr zu groß oder zu klein ist. Beide Perspektiven scheinen möglich. Während die Psychologie im ersten Fall vielleicht darüber stolpert, wird sie im zweiten Fall vermutlich frieren. Zumindest hat sich bis heute kein Änderungsschneider gefunden, der ihr diesen Mantel in passender Weise zugerichtet hätte, obwohl sich viele daran versucht haben. Dabei wird ähnlich wie bei der Problematik des Induktivismus bei der deduktiven Variante von wissenschaftlichen Erkenntnisschlüssen eine "Rettungsstrategie" verfolgt, d.h., daß Abschwächungen der zugrundeliegenden Vorstellung des Prinzips vorgenommen werden. Um aber bei der Metapher zu bleiben: es wird geflickt und gestückelt.

Schon MACH (1903, S. 31) hat darauf hingewiesen, daß die unkritische Übertragung des Denkmodells einer Wissenschaft auf eine andere immer von Übel ist: "Der Physiker hat oft Gelegenheit zu sehen, wie sehr die Erkenntnis eines Gebietes dadurch gehemmt werden kann, dass anstatt der vorurteilslosen Untersuchung desselben an sich, die auf einem anderen Gebiet gefassten Ansichten auf dasselbe übertragen werden. Weit bedeutender ist die Störung, welche durch solche Übertragung vorgefasster Meinungen aus dem Gebiet der Physik in jenes der Psychologie entsteht". Obwohl diese Ansicht schon über 100 Jahre alt ist - Erstauflage 1886 - scheint sie keine wesentliche Verbreitung in der Psychologie gefunden zu haben. In den Naturwissenschaften hat sie sich sehr wohl durchgesetzt.

Nach HERRMANN (1979, S. 17) wird in der forschenden Psychologie vorwiegend nomologische Wissenschaft betrieben. Diese ist gekennzeichnet durch ihr Bekenntnis zum "klassischen Abgrenzungskriterium der empirischen Prüfbarkeit ihrer theoretischen Annahmen" (HERRMANN 1979, S. 22). STAPF & HERRMANN (1973, S. 42) sprechen vom naturwissenschaftlichen Selbstverständnis der nomothetischen Verhaltenswissenschaft Psychologie, für die Gesetze, Erklärung und Vorhersage zentrale Begriffe darstellen. Die Psychologie versucht nach ihrer Auffassung gesetzesförmige Aussagen über Verhaltenstatbestände zu formulieren und mit Hilfe von Gesetzesaussagen unter spezifischen Randbedingungen bestimmte Verhaltensereignisse zu prognostizieren bzw. zu erklären.

GROEBEN (1986, S. 4f) faßt überblicksartig einige diesbezügliche Aussagen zusammen und kommt zu der Ansicht, daß sich die heutige Psychologie als monistisch, logico-empiristisch, naturwissenschaftlich-monistisch bzw. naturwissenschaftlich-empiristisch kennzeichnen läßt. Er meint, daß dieses Selbstverständnis der Psychologie sich in reduktionistischer Weise aus der Monismus-Dualismus-Debatte bzw. Erklärens-Verstehens-Kontroverse der Psychologie ergeben hat, wobei die Betrachtung dieser Dichotomien als einander ausschließend eine der Ursachen der schon angesprochenen Dauerkrise anzusehen ist. Zentrale Merkmale dieser nomologischen Orientierung sind dabei vor allem das deduktiv-nomologische Erklären und die Aufstellung von deterministisch-nomologischen Gesetzmäßigkeiten. Wie schon an anderer Stelle ausgeführt, führt eine solche Position zwangsläufig zu einem Vorrang der Methode vor dem Gegenstand. Dabei ist dieser Methodenmonismus als ein Charakteristikum des Positivismus anzusehen, da nur ein solcher die Einheit einer Wissenschaft bei heterogenen Arbeitsbereichen gewährleisten kann (vgl. V. WRIGHT 1974, S. 18). Ähnlich äußert sich EWERT (1983) - wenn auch durchaus skeptisch -, daß in der Psychologie eine weitgehende Einigung auf ein hypothetico-deduktives Beweisverfahren stattgefunden hat. Während bei der induktivistischen Variante des Erkenntnisschlusses ungeklärt bleibt, wie man zu allgemeinen Aussagen und Gesetzen kommt, so besteht bei der deduktivistischen das Problem, ob es überhaupt solche Aussagen - zumindest für die Psychologie - geben kann.

KRAIKER (1980) zeigt - beispielsweise - in einer genauen Analyse, daß sich etwa die SKINNERsche Konzeption des Behaviorismus oder die FREUDsche Psychoanalyse - trotz ihrer offensichtlichen Gegensätze - zu einem durchgängigen Determinismus menschlichen Handelns und Verhaltens bekennen, also letztlich zu dem Bild einer vollständig determinierten Welt im Sinne von LAPLACE. "Gleichzeitig entwickeln sie jedoch Anleitungen zur Änderung des menschlichen Verhaltens, sie geben Anweisungen, wie durch bestimmte Maßnahmen Handeln und Verhalten modifiziert werden können. Das Problem, das Rätsel bzw. puzzle besteht nun darin, daß hier zwei Dinge behauptet werden: Erstens, die Welt läuft nach unabänderlichen Gesetzen ab; zweitens, man kann dies und jenes tun, damit die Welt sich ändert" (KRAIKER 1980, S. 172). Dabei handelt es sich ganz offensichtlich um einen Widerspruch, der letztlich nicht aufrechterhalten werden kann und unsinnig ist. Für den psychologischen Wissenschaftler, der eine solche nomothetisch-deterministische Wissenschaftskonzeption vertritt, ergibt sich also die Schizophrenie, einerseits theoretisch an eine gesetzesmäßige Determination glauben zu "müssen", andererseits aber gleichzeitig praktischerweise seinem Handeln zumindest irgendein marginales Veränderungspotential zuzuschreiben, wenn er nicht konsequenterweise seine Profession aufgeben will. Anscheinend finden sich in diesem Zwiespalt manche der Omnipotenzansprüche, mit denen Wissenschaften bzw. Wissenschaftler der Öffentlichkeit gegenüber oft auftreten. Vermutlich ist dieses angeführte Dilemma aber verdrängt oder es wird gar nicht wahrgenommen. "Das Laplacesche Weltbild ist als universell gültiges Weltbild widersprüchlich. Fundamental sind nicht gesetzmäßig aufeinanderfolgende Ereignisse, sondern Handlungen, die weder herbeigeführt noch erschlossen werden können, sondern die einfach getan oder unterlassen werden. 'Die Begründung aber, die Rechtfertigung der Evidenz kommt zu einem Ende; - das Ende aber ist nicht, daß uns gewisse Sätze unmittelbar als wahr einleuchten, also eine Art Sehen unsererseits, sondern unser Handeln, welches am Grunde des Sprachspiels liegt' (Wittgenstein, 1970, S. 204)" (KRAIKER 1980, S. 189).

Die Herrschaft des
nomologisch-deterministischen
Paradigmas

Wenn sich die Psychologie bei ihrer Argumentation auf die Naturwissenschaften bezieht, so ist zunächst einmal zu fragen, ob es in diesem Gegenstandsbereich so etwas wie allgemeine Aussagen überhaupt gibt. Ich folge hier im wesentlichen der Darstellung von WOTTAWA (1981).

Da es zu Beginn der Entwicklung einer empirisch naturwissenschaftlichen Psychologie notwendig war, sich etwa von der geisteswissenschaftlichen Tradition abzugrenzen, die die Individualität und Einzigartigkeit des Menschen betonte, kommt es notwendigerweise zu dem Versuch, allgemeine, d.h., für fast alle Menschen gültige Aussagen über Beziehungen zwischen psychologischen Variablen zu finden. Dies wurde insofern möglich, als die aus den Naturwissenschaften übernommenen inferenzstatistischen Methoden dazu verleiten, aggregierte Daten als allgemeine Aussagen zu interpretieren. Allerdings wurden dabei die impliziten Voraussetzungen übersehen, die hinter diesen Methoden stehen.

"Zunächst fällt auf, daß vielen interpretierenden Psychologen nicht ausreichend bewußt ist, welche Fehlerbereiche bei der Betrachtung von zusammenfassenden Statistiken auf der Ebene von Einzelbeobachtungen bestehen. Hierzu hat auch mit beigetragen, daß die oft anzutreffende Überbewertung 'signifikanter' Ergebnisse dazu führt, daß von den Signifikanzgrenzen deutlich abweichende Kennzahlen ('sehr signifikant' und ähnliche Fehlbezeichnungen) auch als substantiell aussagekräftigen Ergebnisse aufgefaßt werden. So hat sich der irrige Sprachgebrauch eingebürgert, die Ergebnisse von Mittelwertsvergleichen als 'allgemeine' Unterschiede darzustellen. Statt 'Frauen haben in dieser Variablen einen höheren Mittelwert' findet man die Interpretation 'Die Ausprägung dieser Variablen ist bei Frauen größer als bei Männern'. Der dabei gemachte Fehler - sicher wird es einige Frauen geben, die kleinere Werte als einige Männer zeigen - wird in seinem Ausmaß oft unterschätzt. Bei Zwei-Stichproben-Vergleichen und den üblichen t-Werten (zwischen 2 und 5) bzw. Stichprobengrößen (50 bis 100 Vpn) beträgt der Überschneidungsbereich der beiden Gruppen zwischen 60% und 80%" (WOTTAWA 1981, S. 132). Auf diese Problematik wurde schon unter dem Aspekt des Induktivismus hingewiesen, daß Menschen - und daher auch Wissenschaftler - allgemein dazu tendieren, im Einzelfall (hier ein statistischer Durchschnitt) auf allgemeine Gesetzmäßigkeiten zu generalisieren, in diesem Fall auf alle Individuen in der Stichprobe.

FOPPA (1986, S. 153) weist ferner darauf hin, daß in der Psychologie die Tendenz dazu besteht, die Ergebnisse von kleinen und eingeschränkten Stichproben auch in der Weise zu "übergeneralisieren", daß sie so dargestellt werden, als handelte es sich um allgemein geltende Sachverhalte, Beziehungen oder Zusammenhänge. Dabei muß gar nicht allein auf die allgemein bekannte Tatsache abgehoben werden, daß vor allem im Bereich der Sozialpsychologie häufig nur studentische Stichproben gezogen werden.

WOTTAWA (1981, S. 132) weist auf eine vermutlich aus einer Vermengung von natur- mit geisteswissenschaftlichem Denken stammende Verallgemeinerung hin, die vor allem sogenannte "psychologische oder hypothetische Konstrukte" und deren Beziehung zur "Realität" betrifft. In Geisteswissenschaften "existiert" nämlich ein Begriff insofern, als man ihm eine bestimmte Position in einem Netzwerk von formalen oder verbalen Aussagen zuweist. Dabei ist es natürlich nicht erforderlich, daß irgendein Bezug zur Wirklichkeit besteht, denn es ist klar, daß es sich eben um ein Konstruktum handelt. Das beste Beispiel in der Psychologie ist das Intelligenzkonstrukt. Zwar hat man sich in der Psychologie aufgrund empirischer Evidenz schon weitgehend von einer eindimensionalen Auffassung getrennt, doch wird er immer noch in dieser Weise ontologisierend verwendet.

Auch in der Persönlichkeitspsychologie ist es ähnlich, denn auch hier werden die "Bezeichnungen für die Beziehungen zwischen Merkmalen verabsolutiert …: 'Frustration führt zu Aggression', 'Neurotizismus korreliert mit dem Zahlensymboltest'. Die hier verwendeten Bezeichnungen sind entweder Bestandteile mehr oder weniger expliziter theoretischer Systeme … oder durch eine Operationsvorschrift … festgelegt. In beiden Aussagen wird aber der eigentliche Gegenstandsbereich der Psychologie - der Mensch - ausgeklammert, die Variablen 'existieren' anscheinend losgelöst von irgendeinem Objekt, an dem sich eine Merkmalsausprägung zeigen könnte" (WOTTAWA 1981, S. 132).

Für solche allgemeine Aussagen muß aber geklärt werden, welche Beziehung sie zum spezifischen Gegenstandsbereich haben, also die Beziehung zwischen Empirie und Realität. Diese ist aber für die Psychologie als empirischer Wissenschaft ungeklärt. Es gibt zwei Denkmöglichkeiten: entweder gelten die Aussagen allgemein, d.h. für (fast) jeden einzelnen Menschen, oder sie beziehen sich nur auf die Stichprobe bzw. deren Populationsparameter. Während strenggenommen nur die zweite Denkmöglichkeit akzeptabel ist, wird aber bei der Interpretation von empirischen Ergebnissen meist eine Vermengung vorgenommen. Wie WOTTAWA (1981) ausführt, werden die Aussagen an Aggregationen erstellt und überprüft, aber dann als allgemeine Feststellungen interpretiert. Dabei werden vor allem Probleme von Wechselwirkungen übersehen, die niemals völlig auszuschließen sind. "So etwa bei der Aussage: 'Die Abiturnote korreliert mit der Vordiplomnote in Psychologie zu 0,31', obwohl die Korrelation je nach Sozialstatus zwischen -0,26 (höchste Sozialstufe) und +0,46 in der niedrigsten Stufe schwankt (vgl. Wottawa & Amelang, 1980). … Kennt man die Wechselwirkungen, kann die Interpretation darauf Rücksicht nehmen. Da aber aus dem Fehlen eines signifikanten Nachweises nicht auf das Fehlen einer Wechselwirkung geschlossen werden kann …, muß immer mit unbekannten Wechselwirkungen gerechnet werden, sodaß 'allgemeine' Aussagen auf der Basis aggregierter Daten nicht gerechtfertigt sind - die entsprechende Forschungspraxis beruht auf einer Fiktion" (WOTTAWA 1981, S. 133). Auch in einer eigenen Untersuchung (STANGL 1985) konnte gezeigt werden, daß die oft angenommene faktorielle Unabhängigkeit der beiden Erziehungsstildimensionen "Kontrolle" und "Unterstützung" nicht zutreffend ist, sondern mit dem Alter der jeweiligen Stichproben von einer negativen Korrelation r=-0.06 bis zu einer positiven r=0.27 variiert.

Auch DÖRNER (1983) argumentiert, daß sich das "System Mensch" aufgrund des hohen Ausmaßes an Wechselwirkungen "chaotisch" verhält und daher nur berechenbar ist, wenn man den Input, d.h. die Eingangsvariablen, und dessen Wechselwirkungen in seiner ganzen Breite ganz genau kennt. Nur dann ist es möglich, Erklärungen und Voraussagen zu machen. In der Psychologie geht man aber immer nur von isolierten Einzelbedingungen aus, was aber für die Analyse eines "wechselwirkungsbehafteten Systems" überhaupt nicht ausreicht. Dieses Vorgehen ist ein Erbe der "klassischen Physik", das im naturwissenschaftlich-empiristischen Modell Pate gestanden hat, denn dort war der Rückgang auf kleinste möglichst reine Einheiten, aus denen unter idealen, d.h. möglichst störungsfreien Bedingungen allgemeine Gesetzmäßigkeiten aufgebaut werden können, natürlich gegenstandsadäquat (vgl. GROEBEN 1986, S. 25). Dieser Aspekt des Wissenschaftsverständnisses wurde unter der Einheitenproblematik schon besprochen. Das Schlagwort "Psychologie ohne Seele" (DILTHEY) bedeutet eben eine "Psychologie der Elemente ohne Wechselwirkungen", die vermutlich aber genau das ausmachen, was mit Seele gemeint sein dürfte.

Die Übernahme der naturwissenschaftlichen Methodik im Hinblick auf die Festlegung von Populationen und Stichproben bzw. deren Beziehungen hat nämlich übersehen, daß die zur Untersuchung anstehenden Gegenstände jeweils strukturell vollkommen unterschiedlich sind. Während in den echten Naturwissenschaften die Einteilung der Objekte nach funktionalen Merkmalen erfolgt, werden in der Psychologie vorwiegend dispositionelle Merkmale (Alter, Geschlecht) verwendet. Diese Teilgruppen sind "naturgemäß" nicht so homogen wie in den Naturwissenschaften, wobei dort historisch betrachtet etwa zur Zeit der Alchemie auch solche Gruppierungen versucht wurden, die aber längst von differenzierteren Einteilungen abgelöst wurden. "In der Psychologie scheint ein entsprechendes (unsinniges) Vorgehen noch weitgehend üblich zu sein, eingeschränkt nur dadurch, daß für die meisten Untersuchungen der 'allgemeinen' (besser wäre 'durchschnittlichen') Psychologie ohnehin nur sehr spezielle Teilgruppen als Versuchspersonen herangezogen werden können" (WOTTAWA 1981, S. 134).

Dieser "Kanon der Populationslogik" (FOPPA 1986) führt zu der seltsamen Vorgehensweise, daß wir bei einer empirischen Untersuchung zuerst lege artis die Population und damit den möglichen Geltungsbereich unserer Verallgemeinerungen festlegen. Bevor wir überhaupt wissen, was wir verallgemeinern wollen, wissen wir schon den Bereich, in dem unsere Befunde allenfalls Geltung haben werden. Von der Sache her, d.h. vom Gegenstand, läge es natürlich viel näher, zuerst das Resultat abzuwarten und dann erst die Frage zu stellen, in welchem Bereich er Geltung hat. Das wäre aber eine unter dem herrschenden empirischen Paradigma nicht erlaubte Variante der ex post facto-Interpretation und daher nicht zulässig.

Die Fiktion allgemeiner Aussagen in der Psychologie

Eines der wichtigsten Ziele von Wissenschaft ist das Erklären von Ereignissen und Gesetzmäßigkeiten. Nach SINGER (1971, S. 1011f) ist das Geschäft der Erklärung geradezu das Hauptmerkmal von Wissenschaft. "Most scientists would contend, in fact, that explanation is the ultimate raison d'être of science. If asked what an explanation is, scientists cannot confidently articulate a definition, although they are fairly sure they know one when they see one". Ohne auf die umfassende Diskussion der Erklärungsproblematik eingehen zu können, haben in den letzten Jahren viele Erkenntnistheoretiker versucht, das Problem unter Einbeziehung psychologischer Faktoren zu diskutieren bzw. zu lösen (vgl. etwa POLANYI 1968; SCRIVEN 1962).

Psychologen und Philosophen haben denn auch immer wieder über die psychologischen Komponenten menschlicher Erklärungsversuche diskutiert, aber es wurden kaum bedeutendere Versuche unternommen, diese Problematik in umfassender Weise empirisch anzugehen. Dabei hätte die Psychologie vermutlich einiges zur Lösung anzubieten. "It is suggested here that a laboratory operationalization of explanatory behavior be constructed, which include as essential defining elements an affirmnation of understanding and a reduction of tension and search behavior on the part of the explainee; further that the operational definition itself omit any consideration of the truth value, usefulness, logic, or appropriateness of the explanations. We can then ask a barrage of empirical questions. I will conjecture at this point that mere familiarity or exposure plays a large role in the acceptability of an explanation, that vitalistic explanations have particular appeal, and that there are large differences among individual scientists and among disciplines in the level and kind of explanations they are most comfortable with" (vgl. SINGER 1971, S. 1012).

Dabei ist das grundlegende Problem vor allem die begriffliche und inhaltliche Abgrenzung der Erklärung vom Beschreiben eines Sachverhaltes bzw. die Festlegung einer Ordnung dieser beiden Sachverhalte. Nach der analytischen Wissenschaftstheorie ist dabei die Erklärung der Beschreibung nachgeordnet: "Wissenschaftliche Erklärung eines Sachverhaltes ist immer Erklärung unter einer bestimmten Beschreibung" (GROEBEN & WESTMEYER 1975, S. 78). Die wissenschaftliche Erklärung wird in der Regel als die Antwort auf eine Warum-Frage verstanden, d.h., das Konzept der Erklärung wird mit dem Konzept der Kausal-Erklärung verbunden. STAPF & HERRMANN (1973, S. 42) bezeichnen das Bestreben, Warum-Fragen zu beantworten, als eine der wichtigsten Triebfedern wissenschaftlicher Forschung, denn keine noch so detaillierte Beschreibung eines Sachverhaltes kann eine solche Befriedigung verschaffen wie die Erkenntnis, einen Sachverhalt erklärt zu haben. Die bloße Beschreibung beschränkt sich lediglich darauf, eine Antwort auf die Frage zu geben, was der Fall ist oder war. Durch die Erklärung hingegen kann man feststellen, warum etwas so und nicht anders war (vgl. STEGMÜLLER 1966).

Man muß aber bedenken, daß es prinzipiell auch zahlreiche andere Formen der Erklärung gibt, und daß nur durch die Übernahme des naturwissenschaftlichen Denkmodells die Fixierung auf ein Begründungsmuster zustandegekommen ist. Das Kausalprinzip kann daher auch als Ausdruck eines wissenschaftlichen Programms oder als Voraussetzung naturwissenschaftlicher Tätigkeit betrachtet werden. Dieses Programm läßt sich so formulieren: "'Der Naturwissenschaftler soll immer nach kausalen Erklärungen suchen, wenn er auf neue Phänomene stößt'. Es ist dann aber ohne große Relevanz, da die Arbeit des Naturwissenschaftlers ohnehin darin besteht, die Phänomene unter allgemeine Gesetze zu subsumieren und zu erklären; und 'erklären' heißt in der Naturwissenschaft eben auch 'kausal erklären', wo das möglich ist. Ein solches generelles Programm ist allerdings nur sinnvoll, wenn man das Kausalprinzip (K) als deskriptiven Satz für wahr hält" (vgl. V. KUTSCHERA 1972, S. 357). Die "Selbst"verschreibung oder "Selbst"vorschreibung des Kausalprinzips durch den Naturwissenschaftler ist daher eine mehr oder weniger intentionale, nicht ein Naturgesetz. Es ist vermutlich nur den wenigsten Wissenschaftlern klar, daß ihr Handeln unter einem nomologisch-deduktiv-kausalen Paradigma eine Überzeugung darstellt, die im Verlaufe der (natur)wissenschaftlichen Sozialisation erworben wurde, und selber nur unvollständig und elliptisch begründbar ist. Pointiert: die Berufung auf die Kausalität als Begründungsmodell in den (Natur)Wissenschaften kann letztlich nur final bzw. teleologisch begründet werden.

Der Prozeß der Erklärung eines Ereignisses besteht im wesentlichen darin, daß man entweder in einer empirisch ermittelten Wenn-Dann-Beziehung eine gesetzmäßige (nomologische) Beziehung aufdeckt, die sich bezüglich zukünftiger Ereignisse verallgemeinern läßt (Induktion), oder die Existenz einer bestimmten Wenn-Dann-Beziehung mittels einer bereits formulierten Gesetzmäßigkeit verifiziert (Deduktion). Die erste Form ist natürlicherweise die stärkere Variante, da sie zur Erweiterung der bereits bestehenden Erklärungsmittel beiträgt (vgl. KÜPPERS 1986, S. 234, s.o.). Das Schema der kausalen Begründung oder Erklärung läßt sich prinzipiell so darstellen: Unabhängig davon, ob ein zu begründender Satz B wahr ist, spricht man dann von einer "kausalen Begründung" oder "Erklärung", wenn sie sich zum Ziel setzt, deutlich zu machen, warum das durch den Satz B ausgedrückte Ereignis eintritt. Die begründenden Sätze (A1, … An) dienen dann als Seinsgründe und stellen Ursachen für den zu begründenden Satz B dar. Die Sätze aus der Menge B müssen dann nicht nur wahr und unproblematisch sein, sondern sie müssen ein Ereignis oder ein Gesetz ausdrücken, die selber einer kausalen Begründung nicht bedürfen (vgl. V. KUTSCHERA 1972, S. 367).

Im vorherrschenden empirisch nomologisch-deduktiven Wissenschaftsverständnis von Psychologie wird dabei vom H-O-Schema und den damit verbundenen Adäquatheitsbedingungen ausgegangen (vgl. HEMPEL & OPPENHEIM 1948; HEMPEL 1965; GROEBEN & WESTMEYER 1975). Dieses H-O-Schema ist das Kernstück des für den logischen Empirismus entwickelten Erklärungsmodells. Das Modell der deduktiv-nomologischen Erklärungen ist allerdings nicht ganz problemfrei, denn es treten insbesondere Probleme bei der Bestimmung des Explanandums zutage (s.u.).

Dieses Schluß-Schema stellt eine empirische Erklärung dar, die auf der Annahme beruht, daß deterministische Gesetze (im Sinne von Allaussagen) möglich sind. Der Syllogismus besteht aus den Elementen des Explanans (Gesetze, Hypothesen oder theoretische Annahmen und den Antezedensbedingungen) und dem Explanandum (Beschreibung des zu erklärenden Ereignisses). Die Adäquatheitsbedingungen sind (nach STEGMÜLLER 1969, S. 86f): 1. die logische Korrektheit des Argumentes, das vom Explanans zum Explanandum führt; 2. das Explanans muß mindestens ein allgemeines Gesetz (oder einen aus einem solchen abgeleiteten Satz) enthalten; 3. das Explanans muß empirischen Gehalt besitzen; 4. die Sätze des Explanans müssen wahr sein.

Für die Psychologie besonders bedeutsam aber auch besonders problematisch sind diese von HEMPEL & OPPENHEIM (1948, S. 247) geforderten strengen Adäquatheitsbedingungen (logical conditions of adequacy), die sicherstellen, ob eine deduktive Erklärung des Explanans überhaupt gerechtfertigt ist. Daher wurde zunächst die strenge Wahrheitsforderung (4.) insofern abgeschwächt, als nur mehr von "hoher Bestätigung" oder "Stützung" die Rede ist, d.h., es wird von einem statistischen Wahrheitsbegriff ausgegangen, denn ein deterministischer ist für die Psychologie wie verwandte Wissenschaften vom Menschen weitgehend irreal. "Spezifisch für die Sozialwissenschaften und für Psychologie ist der Sachverhalt, daß es sich hier fast stets um stochastische Gesetze handelt, wenn diese Gesetze auch bedauerlicherweise häufig im Sprachgewand deterministischer Gesetze auftreten. In diesem Fall tritt jedes einzelne prognostizierte Ereignis stets nur mit einer definierten (überzufälligen) Wahrscheinlichkeit, ab ex definitione nicht mit Sicherheit auf" (STAPF & HERRMANN 1973, S. 54).

Daher ist eine weitere Unterscheidung notwendig. Wenn es sich beim Explanandum um ein Gesetz und nicht um ein Einzelereignis handelt, dann spricht man von einer theoretischen Erklärung. Die Struktur des Syllogismus ändert sich dann nur insofern, als unter der Adäquatheitsbedingung keine Antezedensbedingungen notwendig sind, sondern nur mehr allgemeine nomologische Gesetze genannt werden. Diese Unterscheidung ist für die Psychologie insofern bedeutsam, da es bei der klassischen Form der Erklärung nach dem H-O-Schema um die Erklärung von singulären Ereignissen geht, während es sich bei der theoretischen Erklärung um die Gewinnung empirischer Generalisierungen, Gesetzmäßigkeiten, Gesetze und ihnen verwandte Sachverhalte handelt. Ereigniserklärungen sind aber nur unter der deterministisch-nomologischen Variante möglich, während bei Verwendung von statistischen Gesetzen dies zu einer induktiv-statistischen Erklärung führt. Solche Erklärungen gestatten es nämlich nur, mit der jeweiligen logischen bzw. induktiven Wahrscheinlichkeit relativ zu den jeweiligen Voraussetzungen wieder induktiv zu schließen. Dadurch kommt es wieder zu der schon erwähnten prinzipiellen Mehrdeutigkeit der Ereigniserklärung. Wie bereits dargelegt, ist für nicht-naturwissenschaftliche Ansätze die induktivistische Schluß-Variante aber als unhaltbar erwiesen worden, denn es ist eben nicht möglich, zu sicherer Erkenntnis und Wissen im Sinne allgemeiner Gesetze, seien sie nun deterministischer oder auch probabilistischer Provenienz, zu gelangen.

STAPF & HERRMANN (1973, S. 54) weisen auf die Schwierigkeiten von Menschen und auch von Wissenschaftlern hin, im Bezugssystem von Wahrscheinlichkeiten zu denken. Vor allem verlangen Menschen von Wissenschaftlern sichere Prognosen. Da aber Wissenschaftler nur mit stochastischen Gesetzen arbeiten, wird bei einer Fehlprognose gleich auf die Defizienz der Psychologie überhaupt geschlossen. Vermutlich hängt das mit dem Bild von Wissenschaft zusammen, das Wissenschaftler in der Öffentlichkeit oft zu vermitteln suchen. Für die Wissenschaftler ist es aber notwendig zu akzeptieren, daß "sichere Vorhersagen von Einzelereignissen im Rahmen der psychologischen Berufsarbeit ein frommer Wunsch bleiben werden. Mit dieser schlichten Feststellung emotional fertig zu werden, ist verständlicherweise nicht leicht. Wir halten es aber für eine pathognome Frustrationsverarbeitung, wenn man unangenehme wissenschaftstheoretische Befunde der Wissenschaftstheorie selbst anlastet" (STAPF & HERRMANN 1973, S. 55). Daher kann zunächst das Resumé gezogen werden, daß zumindest für die Psychologie im empiristischen Paradigma bzw. unter dem H-O-Schema keine Erklärungen von Einzelereignissen möglich sind.

Das Problem des Erklärens
in der Psychologie und
das Schema der
deduktiv-nomologischen Erklärung

Da dieses Schema der deduktiv-nomologischen Erklärung deterministische Gesetze voraussetzt und in der Psychologie solche in der Regel unwahrscheinlich sind, wurde daher eine Liberalisierung des Konzeptes durchgeführt. Strenggenommen kann in diesem Fall aber gar nicht mehr von Kausalität oder Erklärung aus Ursachen gesprochen werden.

Die Liberalisierung des
deduktiv-nomologischen Erklärungsschemas

HEMPEL (1962) arbeitete eine induktiv-statistische Version des deduktiven H-O-Syllogismus aus, in dem auch Wahrscheinlichkeitsaussagen anstelle von deterministischen Allsätzen als Antecedentien möglich sind. Allerdings ergeben sich daraus zahlreiche Ungereimtheiten, denn statistische Syllogismen führen zu verschiedenen Wahrscheinlichkeitszuschreibungen, wenn die Personen verschiedenen Hypothesen subsumierbar sind. "Wenn verschiedene, für ein konkretes Explanandum relevante probabilistische Gesetzmäßigkeiten gleichzeitig gültig sind, so können widersprüchliche Konklusionen resultieren, die den statistischen Syllogismus als Rekonstruktion des Erklärungskonzeptes für probabilistische Gesetzmäßigkeiten desavouieren" (GROEBEN 1986, S. 204). Auch führt diese Reparatur mithilfe einer induktiven Relation beim Übergang von Gesetzen zum Explanandum wieder zu den schon besprochenen Problemen der induktiven Logik. STEGMÜLLER (1973) hat anhand von elf Paradoxien und Dilemmata nachgewiesen, daß eine induktiv-statistische Fassung des Syllogismus keine geeignete Explikation des Erklärungsmodells für probabilistische Gesetzmäßigkeiten darstellt.

Dies führte zu einer weiteren Liberalisierung, in der der Anspruch aufgegeben wird, eine Erklärung im klassischen Sinne überhaupt geben zu können (STEGMÜLLER 1973). Vielmehr wird ein "statistisches Verständnis" von Tatsachen angestrebt, das auf "Vernunftgründen" basiert, d.h., es wird dafür argumentiert, als Erklärung das zu akzeptieren, was auf statistischen Begründungen rationaler Erwartungen zurückgeführt werden kann.

ESSER (1979, nach GROEBEN 1986, S. 205) macht diese Liberalisierung an einem Dialog deutlich:

"'Warum ist Hans gestorben?'

'Er ist an Pocken erkrankt, ohne zuvor dagegen geimpft worden zu sein, und 95% der Europäer mit vergleichbarer gesundheitlicher Konstitution sterben in solchen Fällen.'

'Dann hätte er also eine Chance gehabt, durchzukommen?'

'Durchaus, eine Chance von 5%!'

'Warum ist er also gestorben?'"

Dieser Dialog zeigt die Probleme zwischen den Dialogpartner deutlich auf. Der Fragende will die Ursachen des Todes wissen, der Antwortende gibt nur an, womit zu rechnen war (statistisches Gesetz). Der Fragende möchte aber ein strikt-deterministisches Gesetz zur Antwort. Das Problem all dieser Liberalisierungsversuche des Erklärungsprinzips leitet sich aus einer empiristisch-naturwissenschaftlichen Sicht her, aus welcher es plausibel scheint, dieses unter der Zielidee der Rückführbarkeit auf eine Kausal-Ursache zu betrachten. Treffenderweise werden alle diese Versuche unter dem Begriff des Subsumptions-Modells bzw. covering-law-Modells zusammengefaßt (vgl. GROEBEN 1986, S. 206). Dieses covering-law-Modell impliziert bei der Rekonstruktion des Erklärungsbegriffes immer die Sicherung von Gesetzmäßigkeiten durch irgendeine Form der Beobachtung, d.h., eine Sicht von Außen. Die Beschreibung von Handlungen geht hingegen stets von einer Innensicht-Perspektive des Handelnden aus (vgl. GROEBEN 1986, S. 261). Diese Innen- und Außensicht-Perspektiven markieren zwei Extrempunkte des Erklärungsmodells, die mit den Begriffen Verhalten und Handeln als Untersuchungseinheit für die Psychologie gekennzeichnet werden können. Obwohl das H-O-Schema in der wissenschaftstheoretischen Diskussion zum Standardmodell der Erklärung geworden ist, wurde es von vielen kritisiert und zu verbessern versucht, ohne daß bis heute die Diskussion abgeschlossen ist (vgl. V. KUTSCHERA 1972, S. 371).

Die wahrscheinlichkeits-
theoretische Abschwächung

In diesem Sinn ist auch der Versuch zu verstehen, für die Psychologie andere Formen von Erklärungen zuzulassen. Diese bieten sich etwa als Explikationen in der Form von dispositionellen Erklärungen an (vgl. STEGMÜLLER 1969), bei denen das Explanans Konstrukte enthält, die den Charakter von Dispositionsbegriffen (Eigenschaften, Motive, Einstellungen etc.) aufweisen (vgl. GROEBEN & WESTMEYER 1975, S. 91ff). Diese dispositionellen Erklärungen können schließlich in entwicklungsmäßig-genetische Erklärungen und verwandte Untervarianten übergeführt werden (GROEBEN & WESTMEYER 1975, S. 94ff). Allerdings besteht dabei das grundlegende Problem, daß alle bisherigen wissenschaftstheoretischen Definitionsversuche von Dispositionsprädikaten gescheitert sind bzw. daß es sehr wahrscheinlich ist, daß eine solche durch Beobachtungsprädikate prinzipiell nicht möglich ist (vgl. V. KUTSCHERA 1972, S. 267).

Schon WUNDT (1911, nach WERBIK 1978) hat für menschliche Handlungen die Kausalität in den Motiven als Handlungsursachen angesiedelt. Allerdings wird bei Beibehaltung des deduktiv-nomologischen Erklärungsprinzips (wie dies WERBIK 1978, S. 33 tut) und der Verwendung von dispositionellen Antecedensbedingungen von einer objektivierbaren Gesetzesformulierung abgegangen, denn Dispositionen sind prinzipiell Ergebnisse von Zuschreibungen durch Dritte aber keine verifizierbaren Sachverhalte. STEGMÜLLER (1969, S. 120ff) hingegen meint trotzdem auch diese Form der Erklärung akzeptieren zu können, denn auch dispositionelle Prädikate stellen seiner Meinung nach theoretische Begriffe dar und werden nur aufgrund des Vorliegens bestimmter symptomatischer Bedingungen einer Person zugesprochen, wobei die logische Unabhängigkeit von der Handlungsausführung erhalten bleibt. Er weist darauf hin, daß dispositionelle Erklärungen mit teleologischen Erklärungen insofern verwandt sind, als letztere in erstere übergeführt werden können. Darauf wird an anderer Stelle ausführlich einzugehen sein, denn dieser Ansatz eines praktischen Syllogismus kann nicht unter dem hier zu besprechenden covering-law-Modell subsumiert werden.

HERRMANN (1969) hat für diese metatheoretischen Modellvarianten der Explikation in der Psychologie eine Unterscheidung in explikative (besser: explanative, GROEBEN 1986, S. 207) und deskriptive Konstrukte vorgeschlagen. Er hat exemplarisch darauf hingewiesen, daß in der Psychologie dasselbe Konstrukt in beiden Funktionen verwendet werden kann, d.h., es hängt stets davon ab, in welchem Zusammenhang eine Konstruktion verwendet wird. Eine potentielle Unterscheidung hinsichtlich der Verwendung ist dabei im wesentlichen auf die im methodischen (experimentellen bzw. quasi- experimentellen) Kontext vorgenommene zeitliche Festlegung bezogen. Damit kommt es zu einer expliziten Aufgabe des Unterschieds zwischen Beschreibung und Erklärung, also zu einem Verzicht, überhaupt noch in strengem Sinne empirisch forschen zu können.

Alle diese Liberalisierungen stellen einen Versuch dar, das nomologisch-deduktive Paradigma bzw. die für Naturwissenschaften notwendige Trennung von Beschreibung und Erklärung des Gegenstandes in irgendeiner Form aufrechtzuerhalten. Wie GROEBEN (1986, S. 217) hinweist, äußert sich das vor allem an der Aufrechterhaltung der Objektsicht von außen und in den dementsprechenden Verrenkungen bei solchen Erklärungen: "Die Kompliziertheit (mancher) psychologischer Erklärung(en) ist ein Artefakt von (Rest-)Beständen objektivistischer Außensicht (vor allem bei der Beschreibung qua Operationalisierung von Konstrukten innerhalb des empirischen Prüfungsprozesses). Wenn man sich wirklich konsequent auf die Innenperspektive einläßt und z.B. die vom Subjekt (gleich Erkenntnis-Objekt) realisierte Bedeutung von Außenwelt-Reizen etc. erhebt, dann entfällt u.U. eine Vielzahl von komplizierten Erklärungskonstrukten, die nur nötig sind, um von der objektivistisch und damit inadäquat beschriebenen Weltwahrnehmung des Erkenntnis-Objektes zu den Wirkungen dieser (verarbeitenden) Wahrnehmung zu kommen".

Dispositionelle und
andere Erklärungsbegriffe

Neben dem Begriff der Erklärung spielt im H-O-Syllogismus auch der Begriff der Prognose eine bedeutsame Rolle. HEMPEL & OPPENHEIM (1948) weisen darauf hin, daß zwischen Erklärung und Vorhersage eine strukturelle Identität oder Ähnlichkeit bestünde. Der Unterschied sei bloß pragmatisch: Wenn das Explanandum in dem Sinne vorgegeben ist, daß man bereits weiß, daß der durch das Explanandum beschriebene Sachverhalt stattgefunden hat, und wenn die Antecedensbedingungen und die Gesetze nachträglich zur Verfügung gestellt werden, aus denen zusammen das Explanandum ableitbar ist, so spricht man von Erklärung. Wenn allerdings die Antecedensbedingungen und die Gesetze gegeben sind und das Explanandum vor dem Zeitpunkt abgeleitet wird, bevor es stattfindet, dann spricht man von einer Vorhersage. Nach SCHEFFLER (1963) geht es bei der Erklärung um eine "Erhärtung" und bei der Prognose um eine "Setzung". Diese Strukturidentität ist zwar unter Wissenschaftstheoretikern sehr umstritten bzw. noch ungelöst, doch ist das in unserem Zusammenhang insofern irrelevant, als bei der deduktiven Prognose weitgehend dieselben wissenschaftstheoretischen Probleme auftreten wie bei der Erklärung. Ich halte das theoretische Problem der Unterscheidbarkeit von Gesetz und empirischer Generalisierung für eine weitgehend wissenschaftstheoretisch-sprachlogische Problematik.

KRAIKER (1980, S. 192f) etwa weist darauf hin, daß die These von der strukturellen Gleichheit von Erklärung und Prognose ebenfalls letztlich eine Konsequenz des LAPLACEschen Weltbildes ist und führt aus: "Wenn der Zustand Z2 dann und nur dann eintritt, wenn vorher der Zustand Z1 eingetreten ist, und wenn ich das weiß, dann kann ich aufgrund meines Wissens um das Eintreten von Z1 das Entstehen von Z2 voraussagen, und umgekehrt, wenn Z2 eingetreten ist, darauf schließen, daß vorher Z1 der Fall gewesen sein muß. Allerdings löst sich hier die Unterscheidung von Erklärung und Vorhersage in die Unterscheidung von Retrodiktion und Voraussage auf, d.h., der Begriff der Erklärung verschwindet" (KRAIKER 1980, S. 193). Er weist anhand von Beispielen darauf hin, daß es Voraussagen gibt, die nicht als Erklärungen akzeptabel sind bzw. daß es Erklärungen gibt, die keine Voraussagen ermöglichen.

Von der rein logischen bzw. wissenschaftstheoretischen Problematik zu unterscheiden ist allerdings die praktische. DÖRNER (1983, S. 20) weist darauf hin, daß im Alltag die Erklärung menschlichen Handelns - und ich vermute daher auch unter Wissenschaftlern - das kleinere Problem darstellt. "'Hinterher' kann man menschliches Handeln immer ganz gut erklären. Es gibt hinterher fast nie einen Mangel an Hypothesen über die Ursachen psychischer Ereignisse. Das gilt für Alltagshandlungen wie auch z.B. für das Verhalten von Politikern und das Verhalten von ganzen Gruppen. Nach jeder Wahl z.B. kann man zahlreiche scharfsinnige Erörterungen darüber lesen, warum so und nicht anders gewählt worden ist. Vorher sind die Autoren gewöhnlich vorsichtiger. 'Hinterher' kennt man nämlich die Bedingungen und tut sich dann nicht schwer, ad hoc die Determinanten des Verhaltens aufzuspüren. Schwierigkeiten macht die Voraussage des Handelns. Der Grund dafür ist wohl, daß eben die ganze Menge 'zufälliger', 'kleiner' Randbedingungen, von denen menschliches Verhalten und Handeln abhängig ist, im Vorhinein nicht bekannt ist".

Das Problem der Prognose

Heute wird auch in den Naturwissenschaften darüber diskutiert, ob man nicht den Erklärungsbegriff überhaupt aufgeben sollte. "Soweit die Situation gegenwärtig überblickbar ist, sind drei Entwicklungstrends in bezug auf die Explikation des Erklärungsbegriffs in den Naturwissenschaften zu beobachten. Nach dem einen Trend ist dieser Begriff in seiner ursprünglichen Gestalt preiszugeben und durch einen allgemeinere Begriff der wissenschaftlichen Begründung zu ersetzen. Nach einem anderen Trend ist die ursprüngliche Explikation von Hempel und Oppenheim durch den Einbau informationstheoretischer Gesichtspunkte zu modifizieren. Schließlich besteht noch die Möglichkeit, weitere Differenzierungen vorzunehmen und innerhalb sogenannter wissenschaftlicher Erklärungen zwischen Erklärungen im engeren Sinn und empirischen Beweisführungen, die von den ersteren logisch zu trennen sind, zu unterscheiden" (STEGMÜLLER 1986, S. 106).

Die Fragwürdigkeit des naturwissenschaftlichen Erklärungs- und Prognosemodells wird auch von WERBIK (1987, S. 212) anläßlich der Katastrophe von Tschernobyl hervorgehoben, wobei er sich vor allem auf die allgemeine Möglichkeit von Prognosen unter diesem Paradigma bezieht und auch Konsequenzen für die Psychologie fordert: "Es bedarf lediglich minimaler Überlegungen, um zu erkennen, daß sich die Katastrophe von Tschernobyl nur negativ auf die in unserem Fach vorherrschenden Wissenschaftsorientierungen auswirken kann! Tschernobyl ist ein Exempel für die Unvorhersagbarkeit und Unkalkulierbarkeit menschlicher Fehl-Handlungen. Die psychologische Wissenschaft geht hingegen von der Vorhersagbarkeit und Kalkulierbarkeit des menschlichen Handelns aus. Tschernobyl ist ein Exempel für die offenkundige Irrelevanz probabilistischer Risiko-Analysen. Die moderne psychologische Wissenschaft basiert im wesentlichen auf probabilistischen Verhaltens-Modellen. Tschernobyl ist ein Exempel für die Hybris von Technikern und Technokraten. Die wissenschaftliche Psychologie beruht auf technokratischem Denken, indem von der experimentellen Herstellbarkeit von Antezedens-Bedingungen des Handelns ausgegangen wird, so als ob das Streben nach Omnipotenz für einen psychologischen Wissenschaftler charakteristisch wäre".

Aufgabe des Erklärungsbegriffes?

Die Antwort auf die Frage, ob Denken und Handeln des Menschen kausal bestimmt ist, oder ob sich der Mensch mittels freien Willens außerhalb des natürlichen Kausalprozesses stellen kann, wurde mit jedem grundsätzlichen Fortschritt des naturwissenschaftlichen Denkens unter neuen Gesichtspunkten versucht. Auch für die Psychologie ist diese Frage von grundsätzlichem Interesse, denn die subjektive Erfahrung und Selbstinterpretation des handelnden Menschen geht von einer ihm eigenen Entscheidungsfähigkeit aus. Darauf basieren auch die moralischen und ethischen Aspekte der Verantwortlichkeit des Handelnden für sein Handeln und der von der Gesellschaft für solche verantwortlichen Handlungen als legitim angesehenen Sanktionen (vgl. GROEBEN 1986, S. 305). Die im folgenden dargestellten Standpunkte der neueren Naturwissenschaft folgen teilweise der ausgezeichneten Zusammenfassung von KLEMENT (1967).

Das Problem der Kausalität
und das schwache Kausalitätsprinzip

JORDAN (1939) ging von der Auffassung aus, daß mikrophysikalische Vorgänge eine entscheidende Rolle bei seelischen und geistigen Prozessen im Organismus spielen. Da diese nach den Gesetzen der Quantenphysik nicht kausal bestimmt sind, muß dies auch für das menschliche Denken und Handeln zutreffen. Allerdings ist es eine umstrittene erkenntnistheoretische Frage, ob mikrophysikalische Prozesse wirklich nicht kausal bestimmt sind, oder ob wir aufgrund der Unschärferelation nur prinzipiell außerstande sind, diese als kausal bestimmt zu erkennen. Gleichzeitig wissen wir aber, daß sich menschliches Denken nicht auf der Ebene der Atome und Moleküle abspielt, sondern auf der Ebene der Nervenzellen, die ihrerseits aus Atomen bzw. Molekülen bestehen und daher letztlich den Gesetzen der klassischen Physik unterworfen sind.

Nach PLANCK (1939, 1947) gilt das Kausalitätsprinzip auch im Bereich der Mikrophysik, das sei aber nicht zu erkennen, aber objektiv gesehen ist letztlich menschliches Denken und Handeln auch kausal. Daneben stehe nun die persönlich-subjektiv gefühlte Willensfreiheit des Menschen, die prinzipiell aber ebenfalls zu bejahen sei. Damit nimmt er eine Relativierung der Kausalitäts-Freiheits-Dichotomie vor, allerdings ist dann eine Untersuchung der Frage der Willensfreiheit unter objektiv-wissenschaftlichen Gesichtspunkten nicht mehr möglich.

Eine andere Lösung schlug BAVINK (1944) vor. Er weist darauf hin, daß nur der Mensch bewußtermaßen im Besitz des Kausalgesetzes ist, und daß zugleich gerade der Mensch sich als frei empfindet. Daraus ist der Schluß zu ziehen, daß Freiheitsgefühl und Kausalbedürfnis nur zwei Seiten ein und desselben Sachverhaltes sind. Ein ähnlicher Gesichtspunkt ergibt sich, wenn man die Frage nach der Willensfreiheit des Menschen als die Frage nach der Freiheit der menschlichen Entscheidung auffaßt. Jede Entscheidung setzt Informationen über die Situation voraus, in der zu entscheiden ist. Daneben muß aber auch Information in Form von Entscheidungsmaximen (an anderer Stelle dieser Arbeit als Referenzwerte bezeichnet) vorhanden sein, da ohne solche Informationen der Entscheidungsbegriff seinen Sinn verliert. Der Inhalt jeder Entscheidung ist dann kausal durch Information bestimmt. Es muß aber nun unterschieden werden zwischen dem durch Information kausal bestimmten Inhalt einer Entscheidung und der Tatsache, daß das Entscheidungssubjekt die Freiheit besitzt, Entscheidungen zu treffen. "Der Begriff der Entscheidung hat eine inhaltliche (materielle) und eine formelle Seite. Die Freiheit, Entscheidungen zu treffen, steht nicht im Gegensatz zur kausalen Bestimmtheit des Inhaltes der Entscheidung; Freiheit und kausale Bestimmtheit sind nur zwei Seiten ein und desselben Entscheidungsprozesses" (KLEMENT 1967, S. 115). Der Grad der Freiheit eines Lebewesens ist demnach durch die Ebene der Information gegeben, auf der es Entscheidungen treffen und sich frei von unveränderlichen Verhaltensweisen (Reflexen, Instinkthandlungen) machen kann. "Zugleich aber ist der Inhalt seiner Entscheidung durch für diese Ebene spezifische Informationsprozesse kausal bestimmt. Der Mensch steht auf der höchsten der uns bekannten Ebene der Information, er besitzt den höchsten Grad der Freiheit unter den uns bekannten Lebewesen. Der Inhalt seiner Entscheidungen ist kausal bestimmt durch Informationsprozesse auf der Ebene der begrifflichen Sprache, des menschlichen Geistes, die für andere Lebewesen keine Kausalwirkung besitzen" (KLEMENT 1967, S. 115).

In diesem letzten kybernetisch-informationstheoretischen Standpunkt klingt bereits die auch vom Radikalen Konstruktivismus vorgenommene Ausklammerung der ontologischen Frage an (siehe den zweiten Teil der Arbeit), denn der Kausalitätsbegriff wie auch der Begriff der Willensfreiheit sind letztlich Hypothesen eines individuellen Bewußtseins, d.h. selber Ergebnis eines konkreten Entscheidungsprozesses eines Individuums (s.u.). Diese Position steht diametral etwa der von SKINNER (1971, 1974; nach KRAIKER 1980, S. 122) gegenüber, der in dieser und auch in früheren Arbeiten konsequent den Standpunkt vertritt, daß es in der Wissenschaft keinen Platz für ein Ich als Urheber oder Schöpfer von Handlungen geben kann, vielmehr sei der autonome Mensch nur ein Erklärungsmuster für unsere Ignoranz von den wirklichen Verhältnissen.

Nach der Einschätzung von GROEBEN (1986, S. 310) steht die Explikation von Handlungsfreiheit aber keineswegs im Widerspruch zur These der kausalen Erklärbarkeit von menschlichen Handlungen. Er meint, daß die mentalistisch-handlungstheoretische Position mit der kausalen Erklärbarkeit von Handlungen keineswegs ausschließt, daß am Ende der Suche nach erklärenden Antecedensbedingungen irgendwelche externen Stimuli der Reizumwelt gefunden werden. Entscheidend ist nur, daß diese externalen Reize auch immer internal verarbeitet werden. So bleibt ein grundsätzlicher struktureller Unterschied zur behavioristisch-deterministischen Position bestehen. "Die These der Erklärbarkeit menschlicher Handlungen ist vom Grundsatz her zunächst eine metatheoretische Zielidee, die These der deterministischen (automatischen) Kontrolle der Umwelt gegenüber dem (menschlichen) Individuum aber ist eine objekttheoretische Geltungsbehauptung - eine Geltungsbehauptung zudem, die hinsichtlich der Erklärbarkeit menschlicher Reaktionen unter Ausschluß internaler Verarbeitungsprozesse als empirisch falsifiziert gelten kann. Die Vermischung von metatheoretischer Zielidee und objekttheoretischer Geltungsbehauptung (und damit Verwischung ihres Unterschiedes) ist von Scheele (1981, 117ff.) als Immunisierungsstrategie behavioristisch-deterministischer Positionen herausgearbeitet worden; auch gegenüber der Position des Physikalismus oder Materialismus, der durch die These der kausalen Erklärbarkeit menschlicher Handlungen die Möglichkeit 'freien Handelns' ausgeschlossen sieht, läßt sich diese Kritik vorbringen (ähnlich argumentiert auch Montada - 1983, 173ff. - ohne allerdings auf Scheele 1981 zurückzugreifen). Da die These der Anwendbarkeit des Subsumtions-Modells der Erklärung auf menschliches Handeln vom Grundsatz her ein metatheoretisches Programm ist, besteht keinerlei Notwendigkeit, daraus ontologisch einen kausalen Determinismus abzuleiten (der - eventuell - die Möglichkeit freien Handelns ausschließen könnte). Wenn man will, kann man also sehr wohl von der kausalen Verursachung menschlicher Handlungen und zugleich der Handlungs-Freiheit (und Willens-Freiheit) des Menschen sprechen, indem man hinsichtlich der ontologischen Dimension eines physikalischen Determinismus, d.h. abstinent bleibt" (GROEBEN 1986, S. 311).

Der in dieser Arbeit vertretene Radikale Konstruktivismus löst das Freiheits- bzw. Willensproblem in der prinzipiellen Notwendigkeit der Berücksichtigung des beobachtenden Systems in einem allgemeinen Modell des Lebendigen auf, wobei ebenfalls eine ontologische Abstinenz verfolgt wird. Gemeinsame und individuelle Freiheit wird damit zu einem nur konsensuell definierbaren Moment. Damit wird das Problem der Freiheit einem lediglich monistisch naturwissenschaftlich-nomologischen bzw. -deterministischen Ansatz entzogen.

Kausalität und Willensfreiheit

Nur eine nomologische Wissenschaftskonzeption kann für sich in Anspruch nehmen, kausale Erklärungen zu leisten. Bei statistischen Erklärungen bleiben aber immer Unsicherheiten in bezug auf Erklärung und Prognose bestehen. Da das Kausalitätsprinzip in der naturwissenschaftlichen Psychologie untrennbar mit den Prinzipien der deduktiv-nomologischen Erklärung verbunden ist, fällt dieses mit einem Scheitern des Nachweises der Möglichkeit deduktiv-nomologischer Erklärung. Dennoch sollen einige Aspekte diskutiert werden, da sie vor allem im Zusammenhang mit der später zu besprechenden Experimentalsituation - als via regia der nomologischen Psychologie - von Bedeutung sind. Ferner ist eine Auseinandersetzung auch unter dem Gesichtspunkt angebracht, als für den später darzulegenden Standpunkt des Radikalen Konstruktivismus das Problem der Ursache einen wesentlichen Stellenwert aufweist, wobei hier eine prinzipiell andere Auffassung von wissenschaftlicher Erklärung vertreten wird.

Der bedeutendste Philosoph, der versucht hatte, das Prinzip der Ursache eines Ereignisses zu klassifizieren, war Aristoteles. Ich halte mich bei der Darstellung im wesentlichen an V. GLASERSFELD (1987), da er in Komplementarität zur "warum"-Frage ebenfalls am semantischen Ausdruck der darauf folgenden "weil"-Antwort anknüpft. Ein wesentliches Merkmal der Analyse von Aristoteles ist das Anknüpfen an Strukturen des alltäglichen Denkens. Aristoteles schreibt als Begründung für den Versuch seiner Klassifikation von Ursachen in seiner "Physik" (Buch II): "Das Ziel unserer Forschung ist Wissen: Menschen aber glauben nicht, einen Gegenstand zu kennen, wenn sie nicht die Ursache seiner Existenz erfaßt haben … Es leuchtet also ein, daß wir genauso verfahren müssen, was das Werden und das Vergehen und jegliche Art der natürlichen Veränderung angeht, damit wir durch Erkenntnis ihrer Prinzipien in die Lage versetzt werden, jedes unserer Probleme auf diese Prinzipien zurückzuführen".

Aristoteles unterscheidet vier Typen von Ursachen: materiale, formale, Wirk- und Zweckursachen. Hinter der Einführung dieser vier Ursachen verbergen sich allgemeine Erklärungsmodelle, die zwar in erster Linie mit der Physik verbunden sind, die aber Analogien für die Erklärung menschlicher Handlungen aufweisen (vgl. WITTE 1987, S. 84). KUHN (1977) hat bei seiner Analyse des wissenschaftlichen Erklärens bezug auf diese aristotelische Differenzierung genommen. Er hat gezeigt, daß im Verlauf der Wissenschaftsgeschichte jeweils eine Reduktion dieser Differenzierung im Sinne einer Dichotomisierung stattfand. WITTE (1987) vergleicht diese mit der BÜHLERschen Einteilung der erkenntnistheoretischen-psychologischen Wurzeln, in denen er geisteswissenschaftliche, naturwissenschaftliche und sozialwissenschaftliche Anteile ortet. Diesen drei Aspekten entsprechen drei Menschenmodelle: der Konstrukteur, die Maschine und das Opfer, und drei Methodologien: Hermeneutik, Szientistik, Ideologiekritik.

Die ersten beiden aristotelischen Ursachen (causa materialis und formalis) sind wichtig für das "Sein" der Dinge, d.h., für den ontologischen Aspekt. Diese beiden Formen sind statisch und enthalten keinerlei Veränderung oder Prozeß, denn in ihnen wird einerseits nur der definitorische Aspekt (material) und der (syl)logistisch-strukturale Aspekt (formal) einer Ursache angesprochen. In unserem heutigen Sprachverständnis würden wir in beiden Fällen nicht von Ursache sprechen. Dazu zwei Beispiele: "Diese Statue ist, weil sie aus Bronze besteht" bzw. "Ich bin ein Mensch, weil ich zwei Beine und keine Federn habe". In bezug auf menschliches Handeln sind damit etwa das Vorhandensein sozialer Bedingungen bzw. dessen strukturale Vorstellung im Bewußtsein des Akteurs angesprochen (vgl. WITTE 1987, S. 84).

Die beiden anderen Ursachen (causa efficiens und finalis) unterscheiden sich von den ersten insofern, als in beiden Veränderung und Prozeß angesprochen werden. "Immer wenn wir Veränderungen beobachten, suchen wir nach einem Element, das wir dafür verantwortlich machen können, ein Element, das in irgendeiner Weise die Veränderung in Gang setzt. … Eine 'Wirkursache' soll daher immer einen Sachverhalt erklären, der sich von einem vorhergegangenen Sachverhalt unterscheidet" (V. GLASERSFELD 1987, S. 43). Der moderne wissenschaftliche Kausalbegriff geht auf Hume zurück. Er bestand darauf, daß wir, wie genau wir auch immer das verursachende Element untersuchen mögen, nie eine Spur der Wirkung darin finden können, denn der Kausalnexus ist nach seiner Auffassung ausschließlich auf unsere Feststellung gegründet, daß bestimmte Gegenstände in unserer Erfahrung miteinander verbunden sind. Damit wird zum Ausdruck gebracht, daß Kausalität in gewissem Sinne eine menschliche Erfindung darstellt, indem wir bei einer Veränderung eines Sachverhaltes in der Lage sind, dessen zwei zeitlich getrennte Zustände durch die Herstellung einer Kontiguität wieder miteinander zu verbinden und nicht als zwei verschiedene Dinge auffassen. Wie PIAGET gezeigt hat, wird die Fähigkeit zur Herstellung von Kontiguität erst erlernt, sie ist also nicht angeboren. Darauf ist an anderer Stelle noch zurückzukommen. In bezug auf menschliches Handeln ist damit das Maschinenmodell bzw. die mechanistische Auffassung davon angesprochen (vgl. WITTE 1987, S. 84).

Die letzte Form der Ursache ist die "Zweckursache". Sie enthält ebenfalls den Aspekt der Veränderung, allerdings in einer mehr potentiellen Variante. "Wenn das Wort weil schließlich eine Kausalbeziehung des 'finalen' Typs bezeichnet, dann enthält die zugrundeliegende begriffliche Situation notwendigerweise die Repräsentation einer erwünschten Veränderung sowie die wirkende Ursache, von der man meint, daß sie jene erzeugt" (V. GLASERSFELD 1987, S. 50). Die finale Variante einer Ursache enthält jenes teleologische auf die Zukunft projizierte Moment, auf das an anderer Stelle ausführlich zurückzukommen ist. Zu diesem Ursachentypus gehören auch die sogenannten Motivursachen, die sich im Gegensatz zu reinen (d.h. ausschließlich in der Zukunft liegenden) Zweckursachen auch auf einen in der Vergangenheit liegenden Ausgangspunkt der Veränderung beziehen. In beiden Fällen aber wird die Aussage von der begrifflichen Struktur abgeleitet, denn die Unterscheidung von Motiv und Ziel ist meist nur mithilfe kontextueller oder situativer Information zu treffen. In bezug auf menschliches Handeln ist damit das Schüler-Modell des Wissenschaftlers angesprochen, das evolutionär und verändernd in bezug auf ein Praxiskriterium operiert (vgl. WITTE 1987, S. 84).

Wie an anderer Stelle noch auszuführen (Kapitel über die Teleologie) ist bei einer naturwissenschaftlich-empiristischen Auffassung von Erkenntnis zunächst nur die materiale und Wirkursache als "echte" Form der Kausalität bzw. Ursachenzuschreibung akzeptabel. Damit wird der grundsätzlichen Forderung Aristoteles', stets alle vier Ursachen in Rechnung zu stellen, nicht Rechnung getragen. Da sich die Psychologie als Naturwissenschaft versteht, war es durchaus verständlich, daß sie auch für ihren Gegenstand mit diesem eingeschränkten Kausalnexus zu operieren versuchte. Allerdings blieb sie damit hinter der späteren Weiterentwicklung in den Naturwissenschaften zurück. Die Zielidee der Kausalität als strenge - d.h. deterministische - Wirkursache ist in den Naturwissenschaften (etwa in der Physik) aufgegeben worden, vielmehr besteht hier heute die Auffassung, daß Kausalität und Wahrscheinlichkeit keine kontradiktorischen Gegensätze darstellen, vielmehr ist deren Verhältnis relational, d.h., daß sich beide Begriffe gegenseitig explizieren (etwa im Begriff der "Unschärfe" bei Heisenberg oder "Komplementarität" bei Bohr). "Auch die transzendentale Notwendigkeit der angeblich apriorischen Kategorien der 'Substanz' und der 'Kausalität' erwies sich in der modernen Physik als fragwürdig. 'Kausalität' war schon für Newtons mechanisches System nicht besonders relevant. Am Ende seiner 'Principia' heißt es lakonisch: 'Es genügt, daß die Schwere existiert, daß sie nach den von uns dargelegten Gesetzen wirkt und daß sie alle Bewegungen der Himmelskörper und des Meeres zu erklären imstande ist.' In der Quantenmechanik tritt das 'Kausalprinzip' gänzlich außer Kraft" (STACHOWIAK 1983, S. 95f). Ein solches Prinzip der partiell indeterministischen Kausalität gilt in einer Human- und/oder Sozialwissenschaft umso mehr, sodaß sich der Rückbezug auf deterministische Ursachen als unnötig und unbrauchbar erweist (vgl. GROEBEN 1987, S. 288, s.o.).

Die Reduktion der Ursachenproblematik
durch die Naturwissenschaften

Kausalität und Determinismus hängen eng miteinander zusammen. Dabei muß man allerdings berücksichtigen, daß es durchaus unterschiedliche Erklärungsmuster für kausale Beziehungen zwischen Variablen geben kann. Als Beispiel sollen hier drei auch für die wissenschaftliche Psychologie denkbare Zusammenhangsmuster diskutiert werden, die insbesondere auch unter dem in dieser Arbeit vertretenen Radikalen Konstruktivismus von Bedeutung sind.

Wie SCHURIG (1985, S. 214) ausführt, konkurrierten um 1900 in der physiologischen Theorienbildung mehrere Kausalitätsvorstellungen miteinander.

• Das erste Modell der "Einzelheitskausalität" ging von linearen Ursache-Wirkungs-Kausalketten aus und entspricht der meristischen Entwicklungsmechanik, die ROUX in seinen Arbeiten zur Zellteilung vertreten hatte. Als anschauliches Beispiel wird von ROUX die Metapher der Billardkugeln gewählt, die einmal angestoßen, ihre Bahn streng determiniert durchlaufen. Dieses Entwicklungsmodell kann als eine weiterentwickelte Präformationslehre aufgefaßt werden (vgl. SCHURIG 1985, S. 215). In der Psychologie entspricht dieser Ansatz weitgehend dem klassischen linearen Stimulus-Response-Modell bzw. dessen Erweiterungen und Abwandlungen.

• Das zweite Modell des "Konditionalismus" ging von der Annahme mehrerer zusammenwirkender Bedingungen aus, die erst in ihrer Summe wirksam werden. Diesen Ansatz hat VERWORN in seinem damals allgemein anerkannten Lehrbuch der allgemeinen Physiologie vertreten und stellt eigentlich nur eine erweiterte Form des ersten Modells dar. Dieses Denkmodell findet sich in der Methodologie der Psychologie etwa in den pfadanalytischen Ansätzen.

• Das dritte Modell der "Ganzheitskausalität" schließlich ging von einem zyklischen Kausalnetz aus, in dem Ziel, Zweckmäßigkeit und Regulation kreisförmig in Beziehung stehen. Dieser von DRIESCH vertretene Ansatz steht den beiden ersten Modellen diametral gegenüber, da in ihm eigentlich der Ansatz der Kausalität im üblichen linearen Sinne aufgegeben wird. DRIESCHs Position kann als Verschärfung des epigenetischen Prinzips verstanden werden (vgl. SCHURIG 1985, S. 215), nach welchem Entwicklung sich als Prozeß mit sukzessiven Zuwächsen und Veränderungen vollzieht, die durch Wechselwirkungen mit der Umwelt hervorgerufen werden.

Dieser letzte Ansatz entspricht in groben Zügen auch dem dann später in der Ganzheits-, Gestalt- und auch Feldpsychologie vertretenen Denkmodell, auf das an anderer Stelle dieser Arbeit noch ausführlich einzugehen ist. Das Modell der Ganzheitskausalität entspricht gegenwärtig auch dem Erklärungsprinzip der Strukturdeterminiertheit von Organismen, die im Radikalen Konstruktivismus vertreten wird (vgl. SCHURIG 1985, S. 214). In diesem Modell wird die Kausalität im Sinne von Verursachung in der Vergangenheit in Richtung teleologischer Erklärungen von Ereignissen erweitert. Darauf ist ebenfalls an anderer Stelle noch ausführlich einzugehen.

Verschiedene Formen der Kausalität

Zahlreiche "Rettungsversuche" für dieses zentrale Paradigma der Kausalität einer sich naturwissenschaftlich gebärdenden Psychologie wurden unternommen, wobei hier vor allem die analytische Wissenschaftstheorie hervorgetreten ist. Dabei wurden zum Kausalitätsprinzip parallele bzw. teilweise mit ihr vereinbare Konstruktionen entworfen (vgl. etwa die "Wahrscheinlichkeitsmischung" bei STEGMÜLLER (1983) oder die auf PIERCE zurückgehende "propensity-Theorie" von FETZER (1974)). Allerdings bleibt bei allen diesen rekonstruktiven Ansätzen das Problem bestehen, daß eine präzise Explikation des induktiven Bestätigungskonzepts, das für eine Human- und/oder Sozialwissenschaft natürlich wesentlich wichtiger ist als das deduktive, bisher gescheitert ist (vgl. GROEBEN & WESTMEYER 1975, S. 112; s.o.).

Da in den Human- und Sozialwissenschaften aber generell nur Wahrscheinlichkeitsaussagen möglich scheinen, führen sowohl induktive als auch deduktive Begründungsversuche immer zum gleichen Dilemma. V. KUTSCHERA (1972) meint zwar, daß der Aufweis logischer oder induktiver Folgebeziehungen durchaus nicht immer trivial ist, denn bei einer Begründung kann es ja auch darum gehen, einen Mangel an empirischer Erkenntnis aufzuzeigen; es kann seiner Meinung nach auch das Ziel der Begründung sein, pragmatische Richtlinien zu entwickeln. Diese Position eines Wissenschaftstheoretikers ist allerdings eine auf Distanz, sie orientiert sich in hohem Maße an Problemen des "echten" Naturwissenschaftlers. Die vorwiegend logischen Begründungsprobleme in den Naturwissenschaften treten vermutlich auch nur in Grenzbereichen auf, sind also für den Normalwissenschaftler nicht so gravierend. Ganz anders jedoch in Human- oder Sozialwissenschaften. Hier geht es in vielen Fällen um einschneidende Entscheidungen, um "Schicksale" von Menschen. In der Metereologie ist es vermutlich kein echtes Problem, sich auf statistische anstatt auf deterministische Gesetze zu berufen - vielmehr wird der Eifer der Wissenschaft darauf gerichtet sein, die Erklärungen und Prognosen immer mehr zu verbessern. Bis es - nach rein logischen und wissenschaftstheoretischen Überlegungen vermutlich nie - so weit ist, stellen einige falsche Prognosen kein Unglück dar. Eine solche Strategie ist aber für die Psychologie unannehmbar, denn sie hat sich mit dem naturwissenschaftlichen Mäntelchen einen Anspruch zugelegt, den sie nach unserem heutigen Wissensstand nicht annähernd erfüllen kann. Daher ist es auch nicht vertretbar, diesen Anspruch mit dem Etikett "(natur)wissenschaftlich" der Öffentlichkeit gegenüber aufrecht zu erhalten. Die Annahme der Gültigkeit der "starken" Kausalrelation steht in engem Zusammenhang mit dem galileischen Prinzip, das von der Psychologie aus den Naturwissenschaften unreflektiert übernommen worden ist. Die Hoffnung, komplexe Erscheinungsformen psychischer Phänomene des Alltags auf wenige unabhängige Generalprinzipien zurückführen zu können, muß in Anbetracht des Forschungsstandes in der Psychologie als gescheitert betrachtet werden (vgl. BISCHOF 1981).

KRAIKER (1980, S. 212ff) faßt die Problematik der traditionellen Auffassung wissenschaftlicher Theorien unter der Aussagenkonzeption in Form verschiedener scientific puzzles bzw. zentralen Fragen zusammen, wobei er noch auf einige hier gar nicht erwähnte Probleme (etwa das Eklektizismus- oder Heurismusproblem) abhebt, und schreibt, daß all diese Probleme miteinander verwandt sind, da sie alle "durch die Annahme erzeugt werden, zentraler Bestandteil von Theorien seien universelle Aussagen, d.h. Gesetze. Ich behaupte nicht, daß diese Probleme innerhalb der Aussagenkonzeption nicht gelöst werden könnten. So etwas zu beweisen dürfte sehr schwer sein. Ich sage nur, daß diese 'scientific puzzles' bestehen, und daß sie ein Motiv dafür sind …, der Aussagenkonzeption mit Mißtrauen gegenüberzustehen, sie jedenfalls nicht als selbstverständlich zu akzeptieren" (KRAIKER 1980, S. 216). Wenn man sich allerdings den faktischen psychologischen Wissenschaftsbetrieb ansieht, dann kann man leicht erkennen, daß bis auf wenige Ausnahmen solche grundsätzlichen Überlegungen gar nicht erst angestellt werden. Die wenigen auch an wissenschaftstheoretischen Fragen Interessierten werden eher als exotische Wesen betrachtet, die sich mit Dingen beschäftigen, die nichts aber schon gar nichts mit der alltäglichen wissenschaftlichen Arbeit zu tun haben. Vermutlich kann sich ein Psychologe gar kein Mißtrauen in die Grundlagen seiner Arbeit leisten, denn dann würde er vermutlich Probleme mit seinem Selbstverständnis bekommen. In der derzeitigen wissenschaftlichen Ausbildung spielen die hier angeschnittenen Grundsatzfragen einer wissenschaftlichen Disziplin keine Rolle oder sie gehen in "lästigen" Verpflichtungen, diese Seminare auch noch belegen zu müssen, da sie doch offensichtlich nichts mit der Psychologie zu tun haben, unter.

Nach DÖRNER (1983, S. 24) hat die Psychologie bestimmte notwendige prätheoretische Phasen der Wissenschaftsentwicklung glatt übersprungen. So gibt es kaum Ansätze zu einer generellen Morphologie menschlichen Verhaltens und Erlebens - sieht man von vereinzelten Bemühungen etwa im Bereich der Entwicklungspsychologie (etwa bei Bühler und Piaget) oder in der Gedächtnisforschung (etwa bei Ebbinghaus) ab. Auch heute herrscht das "weiße Rauschen" der "Irgendwas"-Forschung vor. "Es gibt keine brauchbaren, übergreifenden Rahmenvorstellungen über den Ablauf des psychischen Gesamtgeschehens. Ansätze dazu, wie sie z.B. in der Psychoanalyse vorliegen, wurden nicht aufgegriffen und entarten zu dogmatisch-nebulösen Gebilden. (Es ist aber überhaupt kein Wunder, daß die Öffentlichkeit zu psychologisch brennenden Zeitfragen ausgerechnet von psychoanalytisch orientierten Autoren "informiert" wird. Denn immerhin hat die Psychoanalyse den Anspruch beibehalten, über psychische Gesamtprozesse etwas auszusagen.) Getreu dem galileischen Prinzip befaßte sich die akademische Psychologie mit Kleinstdetails, kam aber nie zu den Äquivalenzen der Newtonschen Gesetze und konnte dahin nicht kommen eben wegen des Systemcharakters psychischen Geschehens. Ergebnis: eine unübersehbare Fülle unverbundener "theorunculae" für dieses und jenes" (DÖRNER 1983, S. 24f). Vgl. dazu auch das Kapitel über das Verhältnis von Molekularität und Komplexität.

Es ist eine in den Naturwissenschaften (etwa im Bereich der Makrophysik) längst akzeptierte Tatsache, daß nicht nur gleiche Ursachen gleiche Wirkungen haben, sondern daß auch ähnliche Ursachen ähnliche Wirkungen haben. Auch bei der Beobachtung dynamischer und prozeßhafter Entwicklungen in biologischen Kontexten (z.B. bei der Beobachtung von Veränderungen in Populationen) zeigt sich, daß minimale Veränderungen des inputs starke Reaktionen zufolge haben und vice versa (vgl. DÖRNER 1983, S. 17). Dieses Faktum ist unverträglich mit der etwa in der experimentellen Psychologie zugrundeliegenden - meist impliziten - Annahme der starken Kausalrelation. Es ist daher eher wahrscheinlich, daß es in systemischen bzw. interaktiven Gebilden, mit denen es die Psychologie vornehmlich zu tun hat, zu in diesem Sinne "chaotischen" (DÖRNER 1983, S. 19) Reaktionen kommt. Allerdings darf darunter nicht verstanden werden, daß wir es mit "dummen" (DÖRNER 1983, S. 20) Systemen zu tun haben, vielmehr liegt es am (Außen)Beobachter bzw. dessen unvollständigem Repräsentationssystem, daß Prognosen im Bereich des Psychischen so schwer möglich sind. Diese Tatsachen verweisen m.E. etwa auf die Willensfreiheit oder die Lernfähigkeit von lebenden Systemen, die sich einer auch nur annähernd vollständigen Abbildung in empirischen Modellen entziehen. Es muß auch darauf hingewiesen werden, daß aufgrund der Schwierigkeiten bei der Handhabung von geeigneten Repräsentationen vernetzter Systeme einschlägige Methoden bislang in der Psychologie keine größere Bedeutung erlangt haben (DÖRNER 1983, S. 22).

Rettungsversuche des Kausalitätsprinzips

 

 

aus:
Stangl, Werner (1989).
Das neue Paradigma der Psychologie.
Die Psychologie im Diskurs des Radikalen Konstruktivismus.
Braunschweig: Friedr. Vieweg & Sohn.
ISBN: 3-528-06342-4

 

*[back] [top] [index]*