Keywords: Mixed Methods; Kausalanalysen; Big Data
Nicholas Weller / Jeb Barnes, Finding Pathways. Mixed-Method Research for Studying Causal Mechanisms. Cambridge : Cambridge University Press 2014, 162 S., br., 29,65 €
Helene Snee / Christine Hine / Yvette Morey / Steven Roberts / Hayley Watson (Eds.), Digital Methods for Social Science. An Interdisciplinary Guide to Research Innovation. London : Palgrave Macmillan 2016, 234 S., gb., 101,64 €
Bonnie K. Nastasi / John H. Hitchcock, Mixed Methods Research and Culture-Specific Interventions. Program Design and Evaluation. London : Sage 2016, 200 S., br., 27,37 €
Stephen L. Morgan (Eds.), Handbook of Causal Analysis for Social Research. Wiesbaden : Springer VS 2013, 424 S., gb., 232,50 €
Linda McKie / Louise Ryan (Eds.), An End to the Crisis of Empirical Sociology? Trends and Challenges in Social Research. New York : Routledge 2016, 200 S., gb., 139,17 €
Udo Kuckartz, Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden : Springer VS 2014, 174 S., br., 17,99 €
Nicole Burzan, Methodenplurale Forschung: Chancen und Probleme von Mixed Methods. Weinheim und Basel : Beltz Juventa 2016, 116 S., br., 14,95 €
Die Mixed-Methods-Bewegung in ihrer heutigen Form begann sich vor etwa dreißig Jahren im englischsprachigen Ausland zu etablieren. Sie ist vorrangig in angewandten sozialwissenschaftlichen Fächern, in interdisziplinären Kontexten und in der Interventions- bzw. Evaluationsforschung angesiedelt und verfügt z. B. mit dem „Journal for Mixed Methods Research" und dem „SAGE Handbook of Mixed Methods in Social & Behavioral Research" über renommierte Publikationsorgane. Obwohl auch in Deutschland in der Forschungspraxis gehäuft qualitative und quantitative Datenerhebungsverfahren kombiniert werden ([
Gegen die Kombination von Methoden wird zumeist der zu pragmatische Umgang mit den methodologischen Grundlagen angeführt, weshalb die wissenschaftstheoretische Verortung von Mixed Methods weiterhin ein relevantes Thema innerhalb der Bewegung darstellt. Neuere Publikationen wenden sich darüber hinaus der Entwicklung von „Metaframeworks" für die (multiple) Kombination und Integration unterschiedlicher Methoden zu, spiegeln die stetige Zunahme empirischer Anwendungsfelder von Mixed Methods und dortiger Spezialisierungen wider, beschreiben integrative Datenauswertungsverfahren sowie den Umgang mit Big Data und die Möglichkeiten kausaler Schlussfolgerungen auf Basis multimethodischer Untersuchungsdesigns. In diesem Spektrum bewegen sich auch die zu besprechenden Bücher, wobei die Aufdeckung kausaler Zusammenhänge und Mechanismen als ein zentrales Anliegen sozialwissenschaftlicher Forschung im Allgemeinen und als „Kernkompetenz" von Mixed-Methods-Ansätzen im Besonderen sich als „roter Faden" thematisch beinahe durch alle Werke zieht.
Den Anfang machen zwei deutschsprachige Lehrbücher, zum einen das bereits 2014 erschienene Werk „Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren" von Udo Kuckartz und zum anderen das 2016 in der Beltz-Reihe „Standards standardisierter und nichtstandardisierter Sozialforschung" veröffentlichte Buch „Methodenplurale Forschung: Chancen und Probleme von Mixed Methods" von Nicole Burzan. Dass kompakte Lehrbücher wie das von Kuckartz, die in fünf Kapiteln methodische Grundlagen beschreiben und zugleich basale Schritte des Forschungsprozesses von der Planung bis zur Datenauswertung und -darstellung abdecken, in vielen Punkten an der Oberfläche verbleiben und nur selten konkrete forschungspraktische Schwierigkeiten (z. B. im Zusammenhang mit konkreten Mixed-Methods-Designs) diskutieren, liegt ein wenig in der Natur der Sache. Diese Lücke möchte Nicole Burzan mit ihrem Band füllen und Hilfestellung dabei geben, „methodenplurales Vorgehen einzuordnen, zu reflektieren und daraufhin zu optimieren" (
Das Lehrbuch von Kuckartz beginnt mit einer von John W. Creswell verfassten Einleitung sowie einer knappen Schilderung der Genese, der Grundlagen und der Grundbegriffe multimethodischer Forschung im ersten Kapitel. Beides zusammen stellt einen guten Überblick über die einzelnen Entwicklungsphasen der Mixed-Methods-Bewegung bereit. Neben Motiven für den Einsatz von Mixed Methods und der Auseinandersetzung mit der Frage, ob es sich bei Mixed Methods um ein „drittes Paradigma" handelt, grenzt der Autor den Ansatz von häufig synonym verwendeten Ansätzen wie dem der Triangulation ab. Eine ähnliche Abgrenzung findet sich in den ersten beiden Kapiteln von Burzan, die ihre Ausführungen ebenfalls mit den Grundlagen methodenpluraler Forschung eröffnet.
Im zweiten Kapitel seines Lehrbuches führt Kuckartz in unterschiedliche Zielsetzungen multimethodischer Studien und Taxonomien von Forschungsdesigns ein. Dabei orientiert er sich erneut stark an der US-amerikanischen Diskussion und benennt gängige Kriterien und Dimensionen, anhand derer Systematisierungen vorgenommen werden können. Mit dem parallelen Design, dem sequenziellen Verallgemeinerungs- und dem sequenziellen Vertiefungsdesign sowie dem Transferdesign werden vier häufig in der Praxis vorkommende Untersuchungsvarianten näher expliziert und anhand von Beispielen veranschaulicht. Die Stichprobengewinnung findet nur im Zusammenhang mit den sequenziellen Designs Erwähnung. Kuckartz betont, dass die meisten Taxonomien davon ausgehen, „dass es sich bei den Teilstudien um jeweils geschlossene Einheiten handelt" (
Die Verknüpfungsproblematik wird im ersten Teil des vierten Kapitels von Burzan erneut thematisiert, hier allerdings stärker unter der Fragestellung, ob Methoden, Daten oder aber (Teil-)Ergebnisse die zentralen Elemente einer Kombination bzw. Integration darstellen. Dieser Part hätte inhaltlich ebenso gut zu dem vorangehenden Kapitel gepasst. Es folgen, etwas bunt gemischt, Ausführungen zum methodenpluralen Arbeiten in Teams, zur Ethnographie und zum bisher in diesem Buch weitgehend vernachlässigten Sampling, welches in Anlehnung an das Lehrbuch von [
Das dritte Kapitel bei Kuckartz besteht aus gut strukturierten generellen Ausführungen zur Datenanalyse, die sich getrennt auf den quantitativen und den qualitativen Strang beziehen, die aber auch die Integration (z. B. durch Transformation der Daten in den jeweils anderen Datentyp) in den Blick nehmen. Sie können in dieser schematischen Form nur einen ersten Eindruck über die vielfältigen Möglichkeiten der Datenanalyse vermitteln, wobei der Autor die Verfahren zum besseren Verständnis auf die zuvor dargelegten Forschungsdesigns bezieht. In Kapitel 4 werden die integrative Datenanalyse und die im Vorwort von Creswell als Standard beschriebenen Joint Displays unter Verwendung von QDA-Software vertieft. Hierbei handelt es sich um Beispiele auf Basis der von Kuckartz maßgeblich mitentwickelten Software MAXQDA. Sicherlich hätten auch andere Aspekte – wie die abschließende Evaluation eines Mixed-Methods-Projekts zur Qualitätsbeurteilung oder mehr Hinweise auf mögliche Fallstricke bei der Methodenintegration – dieses Lehrbuch abrunden können, es lässt sich aber, wie im vorliegenden Fall, ebenso gut begründen, das Interesse der Leser_innen an der Auseinandersetzung mit den gestiegenen Möglichkeiten der Datentransformation, der integrativen Darstellung unterschiedlicher Daten sowie der Kombination von Techniken der qualitativen und quantitativen Inhaltsanalyse wecken zu wollen. Dies gilt insbesondere dann, wenn man wie Kuckartz die Position vertritt, dass zukünftig infolge der zunehmenden Digitalisierung nicht nur neue Datenarten, sondern analog dazu auch neue Auswertungsmethoden entstehen, die den State-of-the-Art in der Mixed-Methods-Forschung markieren werden.
Burzan nimmt in ihrem Kapitel über Auswertungsmethoden und Darstellungsformen direkt Rekurs auf Kuckartz, teilt aber dessen optimistische Perspektive nicht, dass bestimmte Analysen durch moderne QDA-Programme erst ermöglicht werden, sondern behauptet, dass diese „völlig jenseits der bewährten methodischen Werkzeugkiste [...] kein zentrales Element von Methodenverknüpfungen" seien (
Kuckartz beendet sein Lehrbuch mit zentralen Kritikpunkten an Mixed Methods und Entgegnungen hierauf. Er gibt einen Ausblick auf zukünftige Themenfelder multimethodischer Forschung und formuliert an den grundlegenden Untersuchungsdesigns orientierte Empfehlungen für den Einstieg in die Praxis. Das Buch ist gut geeignet, um Studierenden, Lehrenden und Praktiker_innen einen systematischen Einblick in die Mixed-Methods-Forschung zu geben. Nicht zuletzt durch die am Ende jeden Kapitels bereitgestellten zusammenfassenden Empfehlungen sowie weiterführende Literaturtipps erfüllt es außerdem die Zielsetzung, zu eigener Anwendung vom Mixed Methods anzuregen. In den Stärken des Bandes von Burzan, nämlich den Finger gezielt in mögliche „Wunden" bei der Verknüpfung von Methoden zu legen, sehe ich zugleich seine Schwächen. Leser_innen mit profunden Kenntnissen in mindestens einer methodologischen Traditionslinie sind viele der angesprochenen praktischen Herausforderungen bekannt. Sie werden passende Antworten auf konkrete Fragen voraussichtlich eher in methodenspezifischen Veröffentlichungen einschlägiger Journals suchen, während Noviz_innen im Bereich der Mixed-Methods-Forschung einzelne Passagen des Buches als zu voraussetzungsvoll empfinden könnten oder sich eventuell andere, noch umfangreichere oder noch systematischere Vertiefungen der Materie wünschen. Damit eignet sich der Band tatsächlich am ehesten für die Doktorand_innenfortbildung, aus der heraus er auch entstanden ist.
Das Buch von Bonnie K. Nastasi und John H. Hitchcock „Mixed Methods Research and Culture-Specific Interventions" hat ebenfalls Lehrbuchcharakter, es ist aber im speziellen Zweig der Programmentwicklung und -evaluation verortet und zählt zu der von Plano Clark und Ivankova herausgegebenen praxisorientierten SAGE Mixed Methods Research Series. Mit der Fokussierung auf kulturelle Besonderheiten bei der Implementierung von Programmen greift es ein aktuelles und international bedeutsames Thema in der Mixed-Methods-Forschung auf. Im ersten der insgesamt acht Kapitel legen die Autor_innen den Grundstein für ihre weiteren Ausführungen und klären zentrale Begriffe und Konzepte sowie die eigene, als „ko-konstruktivistisch" bezeichnete Perspektive, bei der alle am Interventionsprozess beteiligten Akteur_innen sich gleichberechtigt im Dialog befinden und eine kulturell passfähige Interventionsmaßnahme entwickeln. Diese multiperspektivische Herangehensweise liefert zugleich einen wesentlichen Teil der Begründung dafür, warum sich Mixed-Methods-Designs für die Entwicklung und Evaluierung von Maßnahmen als besonders geeignet erweisen. Darüber hinaus ist die Methodenwahl mit der Zielsetzung verknüpft, eine Balance zwischen der Standardisierung bei der Entwicklung, Implementierung und Bewertung von Maßnahmen und der flexiblen Adaption an kulturelle Gegebenheiten vor Ort zu gewährleisten (
Die Ethnographie als grundlegend multimethodischer Forschungsansatz, der sich in besonderer Weise für eine kontext- und kultursensible Interventionsforschung eignet, ist – ausführlicher als zuvor bei Burzan – Gegenstand des dritten Kapitels, in dem gängige ethnographische Verfahren in Bezug auf Anwendungsformen, -möglichkeiten und -nutzen bei der Programmentwicklung beschrieben werden und ein methodensensibler Umgang mit ihnen aufgezeigt wird. Bei dem anschließend dargelegten und von Nastasi und Hitchcock selbst konzipierten Modell der „Comprehensive Mixed-Methods Participatory Evaluation" (CMMPE) wird eine multimethodische und multiperspektivische Vorgehensweise anhand von Beispielen illustriert, um Programmerfolg kulturspezifisch zu definieren, das Monitoring und eventuell notwendige Programmanpassungen informiert vornehmen zu können und so die Nachhaltigkeit der Maßnahme zu erhöhen. Während summative Evaluationen in erster Linie auf das Ergebnis ausgerichtet sind, kommen formative Programmevaluationen und ein breites, Akzeptanzfragen einschließendes Verständnis von Erfolg nach Meinung der Autor_innen der Übertragbarkeit von EBIs auf andere Länder entgegen. Es bietet sich somit erneut eine Mixed-Methods-Perspektive an, um kausale Zusammenhänge, die interne und externe Validität der Interventionsergebnisse sowie deren Generalisierbarkeit beurteilen zu können. Nastasi und Hitchcock diskutieren in diesem Zusammenhang unterschiedliche Validitätsbedrohungen und mögliche Lösungen für derartige Probleme. Qualitative Methoden dienen ihnen als wichtige Basis für kausale Argumentationen sowie als Erklärungshilfe bei unerklärter Varianz, überraschenden Befunden randomisierter Kontrolltests und bei Panelmortalität. Die Überprüfung kausaler Hypothesen müsse dann jedoch mittels quantitativer Verfahren erfolgen (111ff.).
Die bisherigen Exemplifizierungen und methodologischen Erläuterungen von Mixed Methods im Kontext kulturspezifischer Interventionen fließen im sechsten Kapitel zusammen, wo anhand eines eigenen, mehrjährigen Projektes die Relevanz der Integration qualitativer und quantitativer Verfahren anhand des „Participatory Culture-Specific Intervention Model" (PCSIM) von [
Die Ausführungen von Nastasi und Hitchcock enden mit einem konkreten Ausblick, wie ein konsequenter Einsatz von Mixed Methods auf dem Gebiet der Interventions- und Evaluationsforschung zukünftig zu Weiterentwicklungen bestehender EBIs und dem Schließen von Wissenslücken bei der Übertragung von Maßnahmen aus der Forschung in die (kulturspezifische) Praxis beitragen kann. Die Autor_innen gehen in diesem sehr instruktiven, detailreichen und methodisch fundierten Buch, das sich an Leser_innen mit Erfahrungen und Kenntnissen in den Bereichen Interventions- und/oder Präventionsforschung, Evaluationen sowie Forschungsmethoden richtet, äußerst reflektiert bei der Anwendung von Mixed Methods vor. Fast jedes Kapitel beginnt mit der Angabe von Lernzielen und bietet nach jeweils informativen, sowohl stark literatur- als auch erfahrungsgestützten und strukturierten Inhalten ein Glossar der verwendeten Schlüsselbegriffe sowie zur Reflexion anregende Fragen und Übungen.
„Finding Pathways. Mixed-Method Research for Studying Causal Mechanisms" von Nicholas Weller und Jeb Barnes ist vor dem Hintergrund politikwissenschaftlicher Fragestellungen entstanden und greift mit der im Titel formulierten Aufdeckung kausaler Mechanismen ein dauerhaft aktuelles Thema sozialwissenschaftlicher Forschung auf, das im zuvor besprochenen Lehrbuch von Nastasi und Hitchcock im Kontext multimethodischer Interventionsforschung ebenfalls mehrfach gestreift wurde. Die Autoren verdeutlichen, wie die Kombination qualitativer und quantitativer Daten dazu beitragen kann, kausale Mechanismen und deren mögliche Interaktion(en) zu identifizieren und die Wirkung einer erklärenden Variable auf das Ergebnis im Rahmen statistischer Pfadanalysen zu erhellen. Sie kontrastieren die von ihnen verfolgte multimethodische Forschungsstrategie mit anderen bekannten Ansätzen der Pfadanalyse und geben Anregungen, wie bereits erhobene quantitative Datensätze dazu genutzt werden können, Spezialfälle statistisch genauer zu betrachten und geeignete Fälle für ein qualitatives Sample zu erkennen. Beides erfolgt mit dem Ziel, auf bisher unbeobachtete Fälle und mögliche kausale Mechanismen zu schließen. Darüber hinaus charakterisiert den Ansatz von Weller und Barnes, dass qualitative Methoden explizit nicht zur Vertiefung oder Validierung der aus quantitativer Forschung gewonnenen Befunde dienen, sondern eingebettet sind in eine breitere Mixed-Methods-Agenda.
Die Autoren liefern einen recht ausführlichen und übersichtlichen Einstieg in Thema und Anliegen ihres Buches, indem sie die Vorzüge des eigenen Mixed-Methods-Ansatzes für die Analyse kausaler Inferenz darlegen sowie Begrifflichkeiten und die persönliche Sichtweise auf Kausalanalysen klären. Dabei wird deutlich, dass sie Mixed Methods pragmatisch im Hinblick auf die komplementären Stärken unterschiedlicher Methoden einsetzen und die methodologischen Grundlagen weitgehend vernachlässigen. Qualitative Fallstudien bieten für sie den Vorteil, dass ein offener und breiterer explorativer Fokus sowohl auf Prozesse (Mechanismen) als auch auf bisher unberücksichtigte Prädiktoren und deren Zusammenspiel gerichtet ist. Durch längere Feldphasen könnten zudem verschiedene Daten erhoben und trianguliert werden, die bei einer Konvergenz der gewonnenen Ergebnisse zu mehr Vertrauen in die formulierten Erklärungen und kausalen Schlussfolgerungen führen würden (4ff.). Als notwendige Voraussetzung für Mixed Methods in der Pfadanalyse müsse den quantitativen und qualitativen Studien ein gemeinsames Konzept zugrunde liegen und die Mechanismen sollten analog zu Moderator- oder Mediatorvariablen in der linearen Regressionsanalyse behandelt werden können, kausale Prozesse müssten also prinzipiell manipulierbar sein (
Im zweiten Kapitel lernen die Leser_innen relevante vorbereitende Schritte für die methodenkombinierende Pfadanalyse kennen. Hierzu gehört die Formulierung eines Erkenntnisziels, das sich von den Zielen der „Causes-of-effects-" und „Effects-of-causes-Forschung" insofern unterscheidet, als bei der Pfadanalyse die Wirkung von X auf Y zwar auf individueller Ebene erfasst wird, sich die im Verlauf der Analyse generierten Hypothesen über Mechanismen aber auf andere Settings und noch nicht beobachtete Populationen übertragen lassen. Mit diesem Fokus sollten nach Meinung der Autoren die theoretischen Erklärungsansätze und der aktuelle Forschungsstand zu kausalen Zusammenhängen rezipiert werden, um mögliche Wissenslücken aufzudecken, die durch einen Mixed-Methods-Ansatz bei der Anwendung von Pfadanalysen ggf. behoben werden können. Da die mit Fallstudien verbundenen Ziele vielfältig sind (z. B. die Identifizierung kausaler Mechanismen, die später entweder direkt oder mittels Proxy-Variablen gemessen und in ein Pfadmodell einfließen sollen, die Überprüfung der Validität von Schlüsselvariablen erprobter Pfadmodelle, die Entwicklung neuer Perspektiven, mit denen bereits bestehende Daten analysiert werden können, etc.), kommt der Auswahl interessanter Fälle für den qualitativen Forschungsstrang eine wesentliche Bedeutung zu. Die in die qualitative Untersuchung einbezogenen Fälle sollten mit Blick auf unterschiedliche Analysedimensionen variiert werden, weil meist weder die Zahl der Mechanismen noch die Interaktionen zwischen ihnen bekannt sind.
Während in Kapitel 3 elementare Überlegungen zur Fallauswahl referiert werden, stellen die Autoren in den nachfolgenden Kapiteln verschiedene Variablen- und Residuen-basierte Auswahlverfahren für lineare Pfadanalysen vor. Sie illustrieren diese anhand von Beispielen, zeigen deren inhärente Probleme auf und kontrastieren die Verfahren mit einem eigenen Vorschlag der Fallauswahl, der sich durch Vielfachvergleiche auszeichnet. Anschließend erläutern sie anhand eines konkreten Beispiels ihre Überlegungen zur Fallauswahl bei nicht linearem Zusammenhang zwischen erklärender und Ergebnisvariable sowie bei Einbettung dieses Zusammenhangs in eine längere Kausalkette aus dynamischen Prozessen. Durch die Kombination von Vergleichen innerhalb eines Falles und über Fälle hinweg kann unter Verwendung bestimmter statistischer Verfahren dynamischen Prozessen Rechnung getragen werden. Bei dieser Gelegenheit wird ebenfalls aufgezeigt, wie Mixed Methods zur Validitätsprüfung von Messinstrumenten eingesetzt werden können.
Am Ende des Buches wird ein Matching-Ansatz vorgestellt, dessen Vorteil darin besteht, dass der mathematisch funktionale Zusammenhang zwischen abhängiger und unabhängiger Variable nicht spezifiziert werden muss. Zugleich schlagen Weller und Barnes eine stärkere Kontextualisierung der Daten vor, um Anhaltspunkte für die Generalisierbarkeit der Befunde auf nicht beobachtete Populationen zu gewinnen und Fälle für zukünftige vergleichende Untersuchungen festzulegen. Den prospektiven Nutzen der Betrachtung bereits bestehender Pfadanalysen begründen sie damit, dass Ideen zur Machbarkeit und notwendigen Beschaffenheit geplanter Untersuchungen von Mechanismen („mechanism-centered research") erzeugt werden könnten. Die Autoren unterscheiden drei Typen dieser rekapitulierenden, auf die Funktionsweise von Mechanismen ausgerichteten Pfadanalysen, wobei insbesondere die policy-orientierten Fallstudien erwähnenswert sind, in denen unter Verwendung qualitativer und quantitativer Methoden der Einfluss bestimmter politischer Problemlösungsansätze zur Gestaltung gesellschaftlicher Verhältnisse untersucht wird. Hier problematisieren Weller und Barnes die in jeder Interventionsforschung implizit vorhandene ceteris-paribus-Annahme und empfehlen mehrere tiefergehende Einzelfalluntersuchungen, die vergleichend das Ge- und Misslingen derselben Maßnahme analysieren und Kenntnisse hinsichtlich relevanter Kontextfaktoren sowie bisher unbeobachteter kausaler Mechanismen generieren, die dann später in randomisierte Versuche einfließen können. Im letzten Kapitel wird die Rolle von Pfadanalysen im Rahmen einer Mixed-Methods-Agenda zur Untersuchung von Mechanismen rekapituliert, die insbesondere in der Ausarbeitung einer Übersicht („mapping") möglicher Verbindungen zwischen unabhängigen Variablen, Mechanismen und der abhängigen Variable besteht.
Herauszustellen ist am Ansatz von Weller und Barnes, dass der vergleichenden Betrachtungsweise ein hoher Stellenwert zukommt, indem stets divergierende Fälle herangezogen werden, die zwar den erwarteten Zusammenhang zwischen unabhängiger und abhängiger Variable aufweisen, aber auch in anderer Hinsicht variieren bzw. verschiedene Aspekte des Zusammenhangs und unterschiedliche Settings widerspiegeln. Die Autoren fördern auf diese Weise sowohl den kritischen als auch den kreativen Umgang mit quantitativen Daten und darauf basierenden Forschungsbefunden und regen dazu an, Daten und Befunde „gegen den Strich zu bürsten", die Zugeständnisse und Folgen der Fallauswahl zu reflektieren und die selektierten Fälle zu kontextualisieren, was zugleich zur Steigerung von Transparenz und Reliabilität des Fallauswahlprozesses beiträgt. Trotz pragmatischem Vorgehen bei der Methodenkombination ist zu keinem Zeitpunkt von einer einfachen Aufdeckung kausaler Mechanismen die Rede. Es werden vielmehr die Beschränkungen und Probleme von Einzelfallstudien ebenso thematisiert wie die Grenzen statistischer Verfahren. Während in den zuvor rezensierten Werken die Stichprobenziehung häufig ein Randthema darstellte, ist diese bei Weller und Barnes von zentraler Bedeutung; hier mangelt es dagegen an konkreten Beschreibungen im Hinblick auf das Vorgehen im Feld.
Die Zielgruppe des Werkes lässt sich schwer definieren; auch wenn bestimmte Vorgehensweisen sich von Kapitel zu Kapitel ähneln, Argumente häufig wiederholt, zentrale Begriffe in einem Glossar am Ende des Buches aufgeführt und statistische Verfahren anschaulich beschrieben werden, erscheinen ein ausgeprägtes Interesse an Pfadmodellen und gute Statistikkenntnisse dringend vorausgesetzt.
Das von Stephen L. Morgan herausgegebene „Handbook of Causal Analysis for Social Research" ist für fortgeschrittene Studierende, Promovierende und Postdocs geeignet und behandelt das Thema Kausalität in achtzehn Kapiteln bzw. Beiträgen und einer Einleitung aus der Perspektive unterschiedlicher theoretischer und methodologischer Schulen und damit breiter als das zuvor rezensierte Werk von Weller und Barnes. Der Schwerpunkt dieses Handbuchs liegt auf den quantitativen Ansätzen, wobei sich die hier versammelten Autor_innen durch einen (methoden)kritischen Blick auf konventionelle Untersuchungsdesigns und statistische Verfahren im Kontext von Kausalanalysen auszeichnen. In vielen Beiträgen werden Weiterentwicklungen statistischer Methoden vorgestellt oder bekannte Problematiken der Kausalanalyse unter neuen Gesichtspunkten dezidiert herausgearbeitet und behandelt, was zugleich spannende Kontroversen sichtbar macht. Liest man den Band mit einem Interesse an multimethodischer Forschung, dann sind insbesondere die vorderen Kapitel von Belang. Bei diesen basiert die innovative Herangehensweise an kausale Fragestellungen zusätzlich auf einer gewissen Offenheit für die Auseinandersetzung mit der qualitativen Forschungslogik sowie der Anerkennung spezifischer Stärken qualitativer Verfahren. Der einleitende Beitrag von Barringer, Eliason und Leahey vermittelt einen komprimierten Überblick über die historische Entwicklung und die vorherrschende methodologische Vielfalt auf dem Gebiet der Kausalanalyse. Die Hauptvarianten kausaler Modellierung und deren Ursprünge werden kenntnisreich dargelegt. Der Beitrag verdeutlicht zugleich, dass fundamentale Fragen wie die, ob Erklärungsansätze grundsätzlich kausaler Natur sein müssen und welche Bestandteile eine kausale Erklärung letztlich ausmachen, eng mit den angewandten Forschungsmethoden verknüpft sind und nicht zuletzt deshalb kontrovers diskutiert werden. Freese und Kevern sensibilisieren mit ihren Ausführungen im zweiten einleitenden Beitrag dafür, dass Ursache-Wirkungs-Beziehungen i. d. R. komplex sind und dementsprechend analytisch präzise zwischen verschiedenen Typen von Ursachen und Strukturen von Kausalgefügen differenziert werden muss. Die Autoren stellen die in der fallorientierten qualitativen Forschungspraxis wesentlich häufiger vorkommende Unterscheidung zwischen notwendigen und hinreichenden Bedingungen heraus, deren stärkere Berücksichtigung in der quantitativen Methodik kausale Schlüsse sehr viel verlässlicher gestalten würde. Voraussetzung hierfür sei allerdings eine anspruchsvolle Konzeptualisierung und Operationalisierung von Kausalmodellen, um sowohl die fehlerhaften und meist unvollständigen Messungen als auch die Logik der reinen Addition von Kausal- und Interaktionseffekten zu überwinden.
Die darauffolgenden drei Beiträge behandeln die Wahl zweckmäßiger Forschungsdesigns für Kausalanalysen. Zunächst stellt Smith die bekanntesten und von namhaften Statistikern entworfenen Designvarianten vor und argumentiert überzeugend, dass eine Hierarchisierung von Forschungsdesigns (z. B. das echte Experiment als Königsweg der Kausalanalyse) die Untersuchung von Ursache-Wirkungs-Zusammenhängen bei ausgeprägter Heterogenität der kausalen Effekte nicht entscheidend voranbringt, sondern unabhängig von strikten Designvorgaben die gesamte Fülle an verfügbaren Daten in Bezug auf die Outcome-Variable genutzt werden sollte. Der Schlüsselsatz des Beitrags, der zugleich ein Plädoyer für eine Balance zwischen Randomisierung, Repräsentativität in Bezug auf die Zielpopulation und einer möglichst naturgetreuen Untersuchungssituation darstellt, ist: „Heterogeneity makes issues of theory and sampling integral to causal inference" (
In dem von Linda McKie und Louise Ryan herausgegebenen Buch „An End to the Crisis of Empirical Sociology?" setzen sich zehn Aufsätze unterschiedlicher Autor_innen und ein Epilog von Savage mit den von [
In vielen Punkten anschlussfähig an Byrne ist der Beitrag von D'Angelo und Ryan, in dem ein Mixed-Methods-Ansatz im Bereich der Analyse sozialer Netzwerke vorgestellt wird. Diese relationale Sichtweise auf soziale Phänomene ist zwar weiterhin durch die quantitative Methode dominiert (siehe hierzu auch den Beitrag von VanderWeele und An im Handbook of Causal Analysis for Social Research), seit einiger Zeit nehmen aber sowohl qualitative Netzwerkanalysen (in Deutschland z. B. [
Die von den meisten Autor_innen dieses Bandes geteilte Ansicht von [
Die übrigen Beiträge dieses mit „Mixing methods: research and teaching" überschriebenen Oberkapitels des Sammelbandes befassen sich damit, dass Methodenvielfalt als Voraussetzung für eine zukunftsfähige (britische) Soziologie, die weiterhin zu gegenstandsadäquater empirischer Forschung fähig ist, auch bedeutet, der bereits spürbar fortgeschrittenen generellen Abkehr des Faches von quantitativen Ansätzen aktiv entgegenzuwirken. Im Bereich der Hochschullehre muss es nach Meinung von Williams, Payne und Sloan gelingen, das studentische Desinteresse an quantitativen Datenerhebungs- und -auswertungsverfahren und die damit einhergehende Abnahme von mathematischen Fähigkeiten zu stoppen. Weil die Entstehung großer quantitativer Datensätze im Zuge der Digitalisierung als unumkehrbar gilt, sollte die Soziologie diesen Teil der Zukunft aktiv mitgestalten und die Informationsgewinnung und -analyse nicht anderen Disziplinen – wie z. B. der Ökonomie – überlassen. Mit einem vergleichbaren Argument plädiert Cohen dafür, in dem methodologisch überwiegend qualitativ ausgerichteten Forschungsfeld der (britischen) Gender Studies den Einsatz quantitativer Methoden zu stärken, um eine explizit quantitative feministische Soziologie zu etablieren, die ihrerseits Art, Inhalt und Struktur standardisierter Daten kompetent beeinflussen kann, um besser als bisher gendersensible quantitative Analysen zu betreiben und aussagekräftige Gender-Indikatoren zu entwickeln.
Die Forderung nach profunden Kenntnissen im Umgang mit Big Data eignet sich als Überleitung zum zweiten Part des Bandes von McKie und Ryan, der den Titel „Big data, big issues" trägt und zugleich einen weiteren relevanten Bereich der aktuellen Methodenentwicklung markiert. Als methodenkritischen Einstieg in das Thema legt Ruppert die Besonderheiten von Big Data dar und kritisiert, dass viele Definitionen weder die ökonomischen und ökologischen Umfeldbedingungen, unter denen die Daten erfasst werden, noch die (neuen) soziotechnischen Praktiken berücksichtigen, mit denen Informationen erhoben werden. In den Praktiken seien Werte, Normen und Konventionen inkorporiert, welche das „Wesen" von Big Data sowie die Beziehungen zwischen technischen und sozialen Akteuren konstituieren und die Wissenschaften inhaltlich und formal prägen, wie im Kontext von Science and Technology Studies (STS) bereits mehrfach aufgezeigt werden konnte. Ruppert rät dazu, jede Form von Daten zunächst als Rohdaten zu begreifen, diese aber sowohl im Lichte der sozialen Praktiken ihrer Entstehung als auch unter Verwendung von Metadaten zu analysieren und zu interpretieren. Sie verwendet hierbei den Begriff „decisive data", um zu verdeutlichen, dass mit der Erhebung und Auswahl von Daten zugleich eine Wichtigkeitszuschreibung bestimmter Forschungsinhalte verbunden ist, und dass dem Umgang mit Daten Entscheidungen vorausgehen, die einer kritischen Reflexion bedürfen. Bei Big Data sind ontologische und ethische Dimensionen zu beachten, da bei der Datensammlung ggf. nicht die Datenschutzrichtlinien eingehalten wurden oder von Verhaltensdaten Rückschlüsse auf die Persönlichkeit gezogen werden, ohne dass die betreffenden Menschen intervenieren können.
In den darauffolgenden vier Kapiteln werden Beispiele für den praktischen Nutzen der Analyse von Big Data gegeben. Webber und Philipps beschreiben, wie die ethnische Herkunft von Personen durch eine computergestützte Zuordnung des Vor- und Zunamens zu einer Region identifiziert werden kann und so durch die Analyse von Datensätzen, die die Namen von Führungskräften und Mitinhaber_innen großer Unternehmen enthalten, der berufliche Erfolg von Minoritäten in Großbritannien wesentlich umfänglicher und differenzierter als bisher untersucht werden kann. Zugleich empfehlen die Autoren aber die Einbettung derartiger Daten und Analysen in die herkömmliche sowie die digitale ethnographische Forschung, um ergänzende Informationen zu sammeln und Fehlinterpretation zu vermeiden. Dieselbe methodische Empfehlung formuliert Murthy mit Bezug auf die Analyse sozialer Medien. In diesem Bereich entsteht zwar aktuell deutlich mehr Forschungsliteratur als in anderen von Big Data tangierten soziologischen Feldern, aber auch hier liegt das Fach hinsichtlich der Theorie- und Methodenentwicklung bspw. hinter den Medien- und Kommunikationswissenschaften zurück. Murthy selbst geht streng regelgeleitet vor und verwendet bei der Untersuchung von Twitter-Daten einen umfangreichen multimethodischen Ansatz, bei dem er z. B. quantitative Clusterverfahren heranzieht, die Tweet-Dichte, also den Abstand zwischen zwei Tweets, in Relation zur Einwohnerdichte unterschiedlicher Städte misst und diese Ergebnisse ebenso wie die Häufigkeit von Tweets visualisiert, die Zerlegung von Twitter-Texten in Fragmente in N-Grammen zusammenfasst und zusätzlich diverse digitale Feldnotizen und digitale Beobachtungen zu Interpretationszwecken heranzieht. Dieser Beitrag dokumentiert eindrucksvoll das inhaltliche und methodische Potenzial, dass in der multimethodischen ethnographischen Social-Media-Analyse enthalten ist.
Burrows, der sich in seinem Beitrag mit der britischen Wohlstandselite nach der Finanzkrise 2008 befasst, greift methodisch auf geodemographische Daten zurück, die der kommerziellen Marktforschung entstammen und die Zuordnung von Personen zu bestimmten sozio-ökonomischen, politischen und/oder Lebensstil-bezogenen Milieus auf der Basis der Wohnadresse ermöglichen. Er kombiniert diese Daten ebenfalls zusätzlich mit anderen Methoden. Eine seiner Thesen lautet, dass Soziolog_innen bei der (Re-)Analyse von Big Data eine kritischere Bewertung der Daten vornehmen als andere Disziplinen und sich gerade deshalb der Methodenentwicklung in diesem Bereich zuwenden sollten. Miller und Dinan entwerfen mit derselben Haltung ein weiteres Szenario, wie Big Data im Kontext einer interdisziplinären und investigativen Form der Elitenforschung genutzt werden kann, und zwar indem eine Verknüpfung unterschiedlicher öffentlich zugänglicher Datensätze stattfindet (z. B. Spendenlisten, Informationen von Regierungen und Verwaltungen oder des European Transparency Registers, Prozessakten über Rechtsstreitigkeiten von Unternehmen, online verfügbare Lebensläufe von führenden Personen aus Wirtschaft und Politik, Daten sozialer Medien wie Facebook, Twitter etc.), um Machtstrukturen und Netzwerke der Machteliten sowie deren Dynamik zu analysieren. Sozialforscher_innen sollten sich nach Meinung der Autoren kreativ bei der Suche nach derartigen Daten zeigen und sich nicht scheuen, Informationen zu verwenden, die „durchgesickert" sind sowie in bestimmten Fällen den Datenzugang bei staatlichen oder sonstigen Organisationen nachdrücklich einfordern, dabei aber die von Ruppert in diesem Sammelband herausgestellte ethische Dimension der Daten reflektieren. Miller und Dinan räumen allerdings ein, dass bisher kaum Methodenliteratur existiert, die zu der hier skizzierten Datenkombination anleiten könnte. Zudem sei technisches Know-how erforderlich und das Zusammenspiel und Bereinigen solcher Datensätze gelte als zeit- und kostenintensiv.
Als Fazit lässt sich sagen, dass dieser anregende Sammelband sich für Leser_innen jeglicher Qualifikationsstufen mit Interesse an multimethodischen Ansätzen eignet, die unter anderem vor dem Hintergrund der Diskussion um Big Data entwickelt wurden. Da jeder Beitrag zugleich mindestens einen der von [
Der letzte Sammelband dieser Rezension, „Digital Methods for Social Science. An Interdisciplinary Guide to Research Innovation", schließt thematisch nahtlos an den vorhergehenden von McKie und Ryan an. Die Herausgeber_innen Helene Snee, Christine Hine, Yvette Morey, Steven Roberts und Hayley Watson haben das Buch in vier Abschnitte untergliedert, die jeweils durch einen kurzen Text eingeleitet werden. Die ersten drei Beiträge fokussieren auf die Analyse sozialer Medien. Sowohl Bruns und Burgess als auch Brooker, Barnett, Cribbin und Sharma wenden sich der Auswertung von Twitter-Daten zu. Beide Beiträge problematisieren den Zugang zu diesen Daten und setzen sich dezidiert mit APIs auseinander. API steht für „Application Programming Interface" und ist die Schnittstelle zur Anwendungsprogrammierung, die als Datenübermittler im Softwarebereich fungiert und anderen Programmen ein Tool zur Verfügung stellt, über das sie sich an das Softwaresystem anbinden und Inhalte zwischen verschiedenen Webseiten, Programmen und Content-Anbietern austauschen können. Webdienste erlauben auf diese Weise Dritten, den bereitgestellten Inhalt dynamisch in das eigene Programm zu integrieren, die Daten weiterzuverarbeiten und sich Zugang zu vorher verschlossenen Datenpools und Benutzerkreisen zu verschaffen. APIs sind weitgehend auf kommerzielle Bedarfe zugeschnitten. Damit Twitter-Daten für sozialwissenschaftliche Untersuchungen herangezogen werden können, müssen sie mit erweiterten Rechten erworben werden, was nach Erfahrung der Autor_innen nicht immer im gewünschten Umfang möglich sei. Darüber hinaus benötigen Wissenschaftler_innen Auskünfte bezüglich der Datenstruktur und der zugrundeliegenden Algorithmen, um die eigenen Befunde verlässlich und verzerrungsfrei einschätzen zu können. Die Rate der Abfragen ist z. B. begrenzt, die Zeitintervalle zwischen den möglichen Abfragen können schwanken, die Algorithmen zur räumlichen Darstellung verschiedener Hashtags divergieren etc. Als Konsequenz formulieren Brooker et al., dass Datenentstehungs- und Visualisierungsprozesse berücksichtigt werden müssen. Forschungsergebnisse von Social-Media-Analysen seien als „Assemblage" zu begreifen, weil sie eine untrennbare Kombination von menschlichen und computertechnischen Suchprozessen darstellen.
Stirling schildert im letzten Kapitel dieses ersten Buchabschnittes ihre Erfahrungen mit einer digitalen ethnographischen Studie unter Verwendung der Facebook-Plattform als Feld. Da die Autorin den Gebrauch des sozialen Mediums durch Studierende betrachtet und sich für deren soziale Praktiken interessiert, sticht als besondere methodische Herausforderung die soziale Konstruktion des Raumes heraus: Während Studierende in Vorlesungen nebeneinandersitzen, chatten sie über Facebook und heben damit die Grenzen zwischen physikalischen und digitalen Räumen auf. Soziale Praktiken sind somit nicht getrennt für beide Kontexte zu erfassen.
Der zweite Abschnitt des Bandes fasst Beiträge zusammen, die sich dem Vergleich klassischer Methoden der empirischen Sozialforschung mit digitalen Methoden widmen und/oder Methoden oder Befragungsmodi kombinieren. Hope erläutert in seinem Beitrag, wie er denselben Fragebogen als schriftliche Befragung und als Online-Survey konzipiert und bereits bei der Rekrutierung von Teilnehmer_innen unterschiedliche Methoden eingesetzt hat, weil bestimmte Personengruppen der Zielpopulation offline schwer erreichbar waren. Die Verknüpfung von Daten verschiedener Befragungsmodi ist zwar nicht neu und mit bekannten Problemen behaftet (vgl. z. B. [
Die Entwicklung von Innovationen auf dem Gebiet der digitalen Methoden ist Thema des dritten Abschnittes, in dem deutlich wird, dass das Verhältnis zwischen digitalen Techniken und digitalen Methoden oftmals ein instrumentelles ist. Estalella legt die Ergebnisse ethnographischer Beobachtungen im Medialab-Prado (MLP) dar. Das Konzept des MLP besteht darin, Menschen mit verschiedenen Vorkenntnissen und mit unterschiedlicher disziplinärer Herkunft mit Software, Hardware und Rohmaterialien experimentieren und Prototypen bilden zu lassen. Nach Meinung des Autors entstehen moderne digitale Forschungsmethoden auf dieselbe Art wie Prototypen im MLP, nämlich durch Experimentierfreude und ggf. auch durch Scheitern. Hutchinson argumentiert tendenziell entgegengesetzt zu Estalella und stellt infrage, dass für die digitale Forschung methodische Neuentwicklungen in besonderem Umfang erforderlich sind. Sie demonstriert am praktischen Beispiel des Einsatzes visueller Hilfen (Einblendung von Bildern von Avataren) in asynchronen Online-Interviews (mit Gamern), wie durch die Erweiterungen bestehender Methoden oder die Anpassung derselben an digitale Forschungswelten und Forschungsgegenstände zielführend Informationen erhoben werden können. Ihr Vorgehen bezieht dabei ebenfalls die Beforschten als Co-Produzenten der Daten ein. Wie Online-Plattformen zum Erlernen bestimmter Fertigkeiten und Techniken beitragen, hat Tedder im nächsten Beitrag im Rahmen einer digitalen ethnographischen Studie untersucht. Sie betrachtet darüber hinaus, wie in der materiellen Welt erworbene Fähigkeiten in die digitale Welt übertragen und dort geteilt werden. Ein weiterer Fokus ihrer Untersuchung richtet sich darauf, wie Lernen funktioniert, das ausschließlich auf digitaler Basis erfolgt. Die Autorin diskutiert vor diesem Hintergrund die Entwicklung geeigneter digitaler Forschungsmethoden und erweitert zugleich mit ihrem Beitrag das soziologische Verständnis von „skills".
Der letzte Abschnitt des Sammelbandes wendet sich den Herausforderungen digitaler Forschung zu. In diesem Kontext werden MOOCs (Massive Open Online Courses) einer wohlwollenden, aber kritischen Betrachtung unterzogen (Knox), die Vorteile des (zusätzlichen) Einsatzes digitaler Methoden bei der Forschung zum Lernerleben von Kindern – als die Generation der „digital natives" – geschildert (Bond und Agnew) und ethische Probleme diskutiert, die im Zusammenhang mit der Nutzung internetbasierter Daten zu Forschungszwecken auftreten (Hewson). Den Abschluss bildet ein Beitrag der Herausgeber_innen, in dem die zentralen Erkenntnisse der vorhergehenden Kapitel zusammengefasst werden und leider nur ein kurzer Ausblick auf mögliche zukünftige Entwicklungen und offene Fragen erfolgt. Die Autor_innen appellieren an dieser Stelle an die Scientific Community, bei der Beschäftigung mit digitaler Forschung die Trennung zwischen „mainstream" und „marginal" sowohl in Bezug auf die Forschungsthemen als auch auf die Methoden aufzuheben. Die Digitalisierung sei fester Bestandteil des alltäglichen Lebens; genau an der Schnittstelle zwischen dem Digitalen und dem Sozialen würden sich für die empirische Sozialforschung innovative Forschungsfragen ergeben. Ein Statement, dem durchaus zugestimmt werden kann. Im Vergleich zum thematisch partiell ähnlichen, aber aus überwiegend (britischer) soziologischer Perspektive verfassten Sammelband von McKie und Ryan ist der Sammelband von Snee et al. deutlich interdisziplinärer, in der Qualität der Beiträge heterogener und internationaler ausgerichtet. Die in diesem Band zusammengeführten Autor_innen zeigen sich als überaus aufgeschlossen gegenüber Mixed-Methods-Ansätzen, die digitalen Technologien nehmen jedoch einen größeren Raum ein, weshalb der adressierte Leser_innenkreis eventuell größer bzw. inhaltlich anders zusammengesetzt ausfallen mag als beim Sammelband von McKie und Ryan. Eine interessante und für die eigene Forschung inspirierende Lektüre im Hinblick auf Kombinationsmöglichkeiten unterschiedlicher Datenerhebungs- und -auswertungsverfahren stellen beide Sammelbände dar.
Als Fazit sowohl der hier betrachteten Werke als auch der jüngsten Entwicklungen auf dem Gebiet der Mixed-Methods-Forschung insgesamt lässt sich festhalten, dass a) nun auch im deutschsprachigen Raum mehr (Lehr-)Bücher zum methodenkombinierenden empirischen Forschen entstehen, b) mit dem steigenden (internationalen) Interesse an Mixed Methods zugleich die Vielfalt der Themen und Anwendungsgebiete zunimmt und c) Big Data in inhaltlicher und methodischer Hinsicht wichtiger Bestandteil dieser Vielfalt ist, beim Lesen der rezensierten Werke allerdings der Eindruck entsteht, als würde sich eine leichte Dominanz qualitativer, vornehmlich ethnographischer Methoden im Bereich der „digitalen Sozialforschung" herausbilden. Mixed-Methods-Ansätze profitieren meiner Ansicht nach jedoch am meisten von Weiterentwicklungen in beiden methodischen Traditionslinien sowie einem eigenständigen digitalen multimethodischen Forschungsprogramm.
Welchen besonderen und seit langer Zeit bekannten Nutzen wiederum Mixed Methods für die Analyse von kausalen Zusammenhängen und Mechanismen besitzt, ist in breiten Teilen der empirischen Sozialforschung unbestritten und wird durch die besprochenen Bücher mit teilweise neuen Beispielen und Argumenten untermauert. Es zeigt sich außerdem, dass sich mehr Vertreter_innen der quantitativen Methoden als in den Jahrzehnten zuvor gegenüber der zusätzlichen Verwendung qualitativer Verfahren öffnen und das Potenzial von Mixed Methods in der Kausalanalyse noch nicht ausgeschöpft ist.
By Bettina Langfeldt
Reported by Author