Die Psychologie ist eine Realwissenschaft. Im Unterschied zu den Formalwissenschaften (Mathematik, Formale Logik), bei denen die Exaktheit der Definitionen und die Stringenz logischer Ableitungen - neben der "Eleganz" der Beweisführung - einzige Qualitätskriterien sind, kommt bei den Realwissenschaften noch ein entscheidendes Qualitätskriterium hinzu: Inwieweit stimmen wissenschaftliche Aussagen mit der "Realität" überein? Ein besonderes Problem für die Psychologie besteht nun darin, daß die in diesen Aussagen verwendeten Merkmale (z.B. Intelligenz, Leistungsmotivation) zumeist nicht unmittelbar, sondern nur mittelbar beobachtbar sind und infolgedessen der Operationalisierung bedürfen. Somit ist offenzulegen, auf welche Weise wissenschaftliche Daten und Analysebefunde gewonnen worden sind. Im Unterschied zu den Naturwissenschaften, bei denen zumindest relativer Konsens darüber besteht, wie wissenschaftliches Vorgehen auszusehen hat, ist dies in der Psychologie keineswegs der Fall. Vielmehr gibt es in ihr recht unterschiedliche - und zumindest in Teilen wohl auch unvereinbare - Wege zur "Wahrheit". Auf einer sehr allgemeinen Ebene zeichnen sich hier zwei Strömungen ab: der quantitative Weg und der qualitative Weg. Beide Wege präferieren jeweils unterschiedliche - "objektiv" messende (= standardisierte) versus (subjektiv oder objektiv) "sinnverstehende" (= unstandardisierte) - Methoden der Datenerhebung und der Datenauswertung.
Quantitative Datenerhebung
Hier geht es um Aussagen über quantitative Regelmäßigkeiten, denen das psychosoziale Geschehen unterliegt. Solche quantitativen Regelmäßigkeiten zeigen sich z.B. in Zusammenhängen (Korrelationen) zwischen den jeweils erhobenen empirischen Merkmalen, in der Zusammenfassung von zahlreichen untereinander korrelierenden empirischen (= manifesten) Merkmalen zu einigen wenigen latenten Merkmalen (= Faktoren), in der Bildung in sich homogener Gruppen von Personen (= Clustern) und in der Modellierung von Ursachen-Wirkungs-Zusammenhängen ("Kausalitäten") (wissenschaftliche Erklärung, Experiment). Die objektive Messung von Daten impliziert eine standardisierte Datenerhebung. Standardisierte Erhebungsinstrumente zeichnen sich dadurch aus, daß sie Mehrdeutigkeiten sowohl auf seiten der Erforschten wie auch auf seiten der Forschenden zu vermeiden suchen. Dabei ist man sich der Schwierigkeit, dieses Ziel einer einigermaßen exakten Messung von psychosozialen Sachverhalten zu erlangen, durchaus bewußt. Die einschlägige Lehrbuchliteratur besteht denn auch zu großen Teilen darin, zur vorbeugenden Vermeidung von systematischen Meßfehlern bei der Datenerhebung entsprechende "Kunstlehren" an die Hand zu geben (Diekmann, 1995; Kromrey, 1995).
Diese systematischen Meßfehler können vom Erhebungsinstrument selbst (z.B. durch schlechte Benutzerführung), von den diese Instrumente benutzenden Personen (z.B. durch ungenügende Schulung von Interviewern, Beobachtern, Kodierern) und von den zu erforschenden Personen (z. B. sozial erwünschtes Antwortverhalten) ausgehen. So banal es klingen mag: Auch bei der Dateneingabe werden häufig Fehler gemacht - mit zuweilen desaströsen Konsequenzen für die nachfolgenden statistischen Analysen. Mittlerweile gibt es jedoch entsprechende Software, die mit Hilfe von Wertebereich- (unzulässige Werte) und Konsistenzprüfungen (Antwort X bei Frage A ist unvereinbar mit Antwort Y bei Frage B) Dateneingabefehler doch erheblich zu reduzieren hilft. Ein weiteres fundamentales Problem ergibt sich aus der für den quantitativen Forschungsansatz essentiellen Notwendigkeit, mit "repräsentativen Stichproben" zu arbeiten. Hierbei geht es darum, auf der Basis von Zufallsstichproben Schlüsse auf definierte Grundgesamtheiten zu ziehen. Dies ist nur möglich, wenn bestimmte, in der Forschungspraxis keineswegs immer leicht einzuhaltende Gütekriterien bei der Stichprobenziehung (Stichprobe) hinreichend berücksichtigt worden sind. So müssen bei "echten Zufallsstichproben" alle Elemente einer definierten Grundgesamtheit die gleiche Chance haben, in die Stichprobe zu gelangen. Dies ist gerade bei Befragungen leichter gesagt als getan (Interview-Verweigerungen, sog. "schwer Anzutreffende", Interviewer, die sich aus Bequemlichkeit über spezifische Anweisungen hinwegsetzen, Interview-Fälschungen usw.).
Quantitative Datenauswertung
Die Auswertung quantitativer sozialwissenschaftlicher Daten erfolgt heutzutage ausnahmslos mit entsprechender Computersoftware (Brosius & Brosius, 1998; Wittenberg, 1998). Sie beginnt normalerweise mit einer Auszählung der Merkmalsausprägungen der einzelnen in die Untersuchung einbezogenen Merkmale. Diese numerische Häufigkeitsdarstellung kann gegebenenfalls durch grafische Darstellungen (z.B. Säulen- oder Kreisdiagramme) ersetzt oder ergänzt werden. Falls das Skalenniveau der Merkmale dies zuläßt, können auch univariate statistische Kennwerte (Mittelwerte, Streuungsmaße und andere, die Häufigkeitsverteilung beschreibende statistische Maßzahlen) berechnet werden. Daran schließt sich in der Regel die Bestimmung von Zusammenhängen zwischen zwei Merkmalen an (bivariate Analyse). Dies geschieht anhand von Kreuztabellen und gegebenenfalls der Berechnung von Assoziations- bzw. Korrelationskoeffizienten. Sofern es sich um "echte Zufallsstichproben" handelt, können auch Signifikanztests berechnet werden, die darüber Auskunft geben, mit welcher Zufallswahrscheinlichkeit aufgedeckte empirische Zusammenhänge oder Unterschiede zwischen zwei Merkmalen auch in der definierten Grundgesamtheit Geltung haben, aus der die Stichprobe gezogen worden ist. Am Ende der Auswertung stehen zwar keineswegs immer, aber aufgrund der heutzutage üblichen enormen Rechnerkapazitäten immer häufiger multivariate Analysen, bei denen mehr als zwei Merkmale gleichzeitig zueinander in Beziehung gesetzt werden (Multivariate Analysemodelle). Im Zusammenhang mit der Auswertung quantitativer Daten sollte auch eine Überprüfung einschlägiger quantitativer Qualitätskriterien (insbesondere Reliabilitätund Validität) erfolgen.
Qualitative Datenerhebung
Beim qualitativen Weg steht entweder der "subjektiv sinnvoll" handelnde Akteur im Mittelpunkt, der Situationen zunächst mehr oder weniger angemessen deutet, um sodann auf der Basis dieser Deutungen "interessengeleitet" zu handeln - oder der mehr oder minder unbewußt von "latenten objektiven" Sinnstrukturen geleitete und diese durch sein Handeln gleichzeitig immer wieder stabilisierende oder auch modifizierende Akteur. Zentrales Erkenntnisziel der qualitativen empirischen Psychologie ist daher das Verstehen (= die Rekonstruktion) dieser subjektiven oder objektiven Sinnstrukturen. Sind schon quantitative Forschungsansätze keineswegs immer einheitlich begründet, so trifft dies auf qualitative Forschungsansätze noch viel weniger zu (Flick et al., 1995; Hopf & Weingarten, 1993). Bei aller Unterschiedlichkeit herrscht bei ihnen jedoch zumindest Einigkeit in der Ablehnung standardisierter Erhebungsinstrumente. Die zu erforschenden Personen, nicht der Forscher, werden am Beginn eines qualitativen Forschungsprozesses als die eigentlichen Experten ("Alltagsexperten") angesehen. Ihr Alltagshandeln gilt es zu rekonstruieren, genauer gesagt: den diesem Handeln zugrundeliegenden Sinn. Das setzt eine möglichst unvoreingenommene ("Prinzip der Offenheit"), genaue und vollständige, und oft mit den zu Erforschenden auch diskutierte ("Prinzip der "Kommunikativität") Dokumentation des erfragten oder beobachteten Geschehens voraus (Bei standardisierten Erhebungsinstrumenten wird ein von wissenschaftlichen Experten vorgedachter Sinn quasi von außen an die zu erforschenden Personen herangetragen). Die einzelnen Ansätze unterscheiden sich nun allerdings in dem Grad der Zurückhaltung des Forschers, der hier - im Unterschied zu den quantitativen Ansätzen - häufig zugleich auch Datenerheber ist. So gibt es qualitative Erhebungsmethoden (z.B. das narrative Interview oder die Gruppendiskussion), die dem Erhebenden, zumindest in bestimmten Phasen der Erhebung, eine nahezu völlige Zurückhaltung auferlegen: Lediglich das Gespräch aufrechterhaltende Ermunterungen sind gestattet - und solche, die in ihrer partiellen Strukturiertheit schon wieder Züge standardisierter Forschung aufweisen (z.B. das Leitfadeninterview). Die Probleme bei einer qualitativen Datenerhebung sind dabei keineswegs geringer als bei einer quantitativen Datenerhebung (Meßfehler, systematische, bei der qualitativen Datenerhebung). Bei einigen qualitativen Forschungsansätzen (z.B. bei der grounded theory) wird nicht strikt von der Datenauswertung geschieden. Dies zeigt sich z.B. im Verfassen von "Memos" (das können etwa subjektive Empfindungen oder auch erste, dem Forscher spontan einfallende Theoriebausteine sein) noch während der Erhebungsphase. Diese Memos werden hinterher bei der eigentlichen Datenauswertung selbstverständlich berücksichtigt. Dies zeigt sich aber auch bei der Personenauswahl: Hier werden im Unterschied zum quantitativen Forschungsansatz keine Zufallsstichproben gezogen, vielmehr werden die zu befragenden oder zu beobachtenden Personen oder Situationen im Rahmen eines "Kontrastierungskonzeptes" theoretisch begründet ausgewählt. Konkret kann das z.B. so aussehen, daß man sich nach der Lektüre des ersten, mit einer zufällig ausgewählten Person geführten Interviews Gedanken macht, wie eine Person aussehen könnte, die sich von dieser Person deutlich unterscheidet. Mit dieser versucht man dann, ein Interview zu führen. Anschließend versucht man ein Interview mit einer Person zu führen, die sich wiederum von den ersten beiden Personen deutlich unterscheidet. Das macht man so lange, bis man zur vorläufigen Erkenntnis gelangt, daß es für die Theoriebildung über den zu erforschenden Gegenstandsbereich keine neuen Facetten mehr gibt und sich daher die Befragung weiterer Personen erübrigt.
Qualitative Datenauswertung
In den meisten Fällen - wenn man sich also nicht mit "Feldnotizen" zufrieden gibt - hat man als Resultate qualitativer Erhebungen zunächst Tonband- oder Videoaufzeichnungen von Interviews, Gruppendiskussionen oder Verhaltensbeobachtungen vorliegen. Bevor diese analysiert werden können, bedürfen sie der Transkription, d.h. sie müssen in eine schriftlich fixierte Form gebracht werden. Diese ist sehr aufwendig, zumal dann, wenn jedes verbale und nonverbale Detail der Erhebung erfaßt werden soll, was jedoch - je nach Auswertungsmethode und Fragestellung - keineswegs immer notwendig ist. Die Auswertung von qualitativen Daten läuft auf die eine oder andere Art und Weise immer auf eine hermeneutische Analyse (Hermeneutik) hinaus (Hitzler & Honer, 1997). Damit ist zweierlei gemeint: zum einen die Bereitschaft, ein immer schon vorhandenes Vorverständnis über einen Gegenstandsbereich in intensiver Auseinandersetzung mit dem erhobenen Datenmaterial so lange zu modifizieren, bis sich keine neuen Aspekte mehr ergeben, so daß der Interpretationsprozeß als vorläufig abgeschlossen gelten kann. Zum anderen ist damit auch gemeint, daß sich am Ende des Interpretationsprozesses Teil und Ganzes nicht mehr fremd gegenüberstehen, sondern zusammenpassen: Jedes Element erfährt seine spezifische Bedeutung aus dem Ganzen heraus, und das Ganze findet sich in jedem Datenelement wieder. Letzteres deutet darauf hin, daß es sich hier - zumindest im Prinzip, das jedoch keineswegs immer eingelöst wird - um eine ganzheitlich ausgerichtete ("holistische") Methodologie handelt - im Unterschied zu einer partikular ausgerichteten Methodologie beim quantitativen Ansatz. Trotz großer Differenzen im jeweiligen hermeneutischen Vorgehen lassen sich zumindest idealtypisch zwei Hauptströmungen unterscheiden: die Analyse von subjektiv gemeintem Sinn (Sinnrekonstruktion, subjektive) und die Analyse von latenten objektiven Sinnstrukturen (Sinnrekonstruktion, objektive).
Zum Verhältnis von quantitativen und qualitativen Forschungsansätzen
Die Zeit der großen methodologischen Dispute (z.B. "Positivismusstreit" der 60er Jahre; Adorno et al., 1969) scheint auf den ersten Blick vorbei zu sein. Stattdessen herrscht Konsens darüber, daß jene empirischen Forschungsmethoden eingesetzt werden sollen, die dem jeweils zu erforschenden Gegenstandsbereich adäquat sind. Auch gegen einen Mix aus quantitativen und qualitativen Forschungsmethoden (z.B. zum Zwecke der wechselseitigen Überprüfung quantitativ und qualitativ gewonnener Forschungsbefunde - "Triangulation") ist demnach nichts einzuwenden, wenn es denn der Wahrheitsfindung dient. Schaut man die psychologische und sozialwissenschaftliche Wissenschaftslandschaft jedoch etwas genauer an, geht es in ihr so "tolerant" nun auch wieder nicht zu. So steht zwar bei der Mehrzahl der Verfechter des quantitativen Ansatzes weitgehend außer Frage, daß man im wissenschaftlichen Vorfeld (etwa zu Explorationszwecken, zur Entwicklung standardisierter Erhebungsinstrumente) oder - nachdem quantitative Befunde vorliegen - im Nachhinein (etwa zu Illustrationszwecken, zur Klärung von Ungereimtheiten, die quantitative Befunde zu Tage gefördert haben) sehr wohl von qualitativen Methoden Gebrauch machen kann. Das ändert aber nichts an dem dieser Richtung eigenen Credo, wonach Wissenschaft im engeren Sinne immer mathematisierbar und damit quantitativ angelegt sein muß. Von einer Gleichberechtigung beider Ansätze kann hier also keine Rede sein.
Umgekehrt besteht bei vielen qualitativ vorgehenden Wissenschaftlern weitgehender Konsens darüber, daß quantitative Forschung zumeist nur oberflächliche und wenig aussagekräftige Resultate zu Tage fördert, diesen Tatbestand aber hinter einem mit allen Mitteln der mathematischen Statistik ausgetragenen szientifischen Kriegstanz zu verschleiern sucht. Quantitative Ansätze sind demnach - wenn sie überhaupt etwas erbringen - qualitativen Ansätzen allenfalls nachgeordnet und kommen z.B. aus forschungsökonomischen Notwendigkeiten zum Einsatz: Quantitative Forschung ist billiger und liefert schneller (fragwürdige?) Ergebnisse. Verwunderlich ist dabei nur, daß in diesen Diskursen ausgerechnet Psychologen und Sozialwissenschaftler bestimmte in diesem Kontext sich geradezu aufdrängende wissenschaftspsychologische oder wissenschaftssoziologische Fragestellungen (z.B. nach der eigenen wissenschaftlichen Sozialisation, nach beruflichen Abhängigkeiten, Karriereplänen oder nach ökonomischen Interessen) systematisch nicht reflektieren, sondern auf scheinbar "rein methodologische Erörterungen" ausweichen.
Literatur
Adorno, T. W., Albert, H., Dahrendorf, R., Habermas, J., Pilot, H. & Popper, K. R. (Hrsg.). (1969). Der Positivismusstreit in der deutschen Soziologie. Neuwied/Berlin: Luchterhand.
Brosius, G. & Brosius, F. (1998). SPSS. Base System und Professional Statistics. Bonn: Thomson Publishing.
Diekmann, A. (1995). Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen. Reinbek: Rowohlt.
Flick, U., von Kardorff, E., Keupp, H., von Rosenstiel, L. & Wolff, S. (Hrsg.). (1995). Handbuch qualitativer Sozialforschung. Weinheim: Psychologie Verlags Union.
Hitzler, R. & Honer, A. (Hrsg.). (1997). Sozialwissenschaftliche Hermeneutik. Opladen: Leske + Budrich.
Hopf, Ch. & Weingarten, E. (Hrsg.). (1993). Qualitative Sozialforschung. Stuttgart: Klett-Cotta.
Kromrey, H. (1995). Empirische Sozialforschung. Opladen: Leske + Budrich.
Wittenberg, R. (1998). Grundlagen computergestützter Datenanalyse. Stuttgart: Lucius & Lucius.
Das freie Lexikon der Psychologie. Fundierte Informationen zu allen Fachgebieten der Psychologie, für Wissenschaftler, Studenten, Praktiker & alle Interessierten. Professionell dargeboten und kostenlos zugängig.
PsychologielexikonModernes Studium der Psychologie sollte allen zugängig gemacht werden.