Methoden für Fortgeschrittene

  

Spätestens bei deiner Abschlussarbeit musst du empirisch arbeiten. Du hast zuvor ein Thema gefunden und eingegrenzt, Literatur recherchiert und dich eingelesen sowie angefangen zu schreiben. In diesem Kapitel findest du eine kurze Beschreibung der quantitativen und qualitativen Forschung, die dir helfen soll, je nach Forschungsfrage die richtigen Methoden auszuwählen.

Methoden Fortgeschrittene

Eine empirische Arbeit muss gewisse Kriterien erfüllen, die in diesem Kapitel ebenfalls thematisiert werden. Außerdem werden dir Tipps gegeben, wie du bei deiner Forschung vorgehen kannst.

Dieses Modul ist speziell für Studierende höheren Semesters gedacht, die noch einmal eine Übersicht über Methoden benötigen, bevor sie ihre Abschlussarbeit schreiben.

Du kannst die Kapitel nacheinander oder auch einzeln (wenn du eine bestimmte Frage hast) durcharbeiten. Wie lange du jeweils ungefähr brauchst, steht immer am Anfang des Kapitels.

 

Inhaltsverzeichnis

1. Quantitative und qualitative Methoden

Empirisch?

Empirisch zu arbeiten bedeutet, Erfahrungen über die Realität zu sammeln, zu systematisieren und sie dann anzuwenden. Nicht-empirisch vorzugehen heißt, einen einzelnen Sachverhalt aufgrund eigener Erfahrung und des theoretischen, allgemeinen Wissens einer Wissenschaft zu verstehen und  einzuordnen. Für die empirische Arbeit gibt es zwei Methodenansätze: den quantitativen und den qualitativen Ansatz.

Quantitativ und Qualitativ?

Quantitative und qualitative Methoden sind nicht völlig trennscharf voneinander abzugrenzen. Außerdem gibt es viele verschiedene qualitative und quantitative Methoden, die eine genaue Abgrenzung und einheitliche Definition erschweren. Mit qualitativen Methoden erfasst du komplexe Phänomene in ihrer ganzen Tiefe, wobei du den Untersuchungsgegenstand möglichst detailliert, ganzheitlich und umfassend beschreibst. Mit Hilfe quantitativer Methoden versuchst du mittels empirischer Beobachtungen einzelne Merkmale systematisch mit Zahlenwerten zu erfassen. Dieses Datenmaterial wertest du dann aus, um vorher aufgestellte Vermutungen (Hypothesen) zu belegen. Quantitative Untersuchungen liefern Erkenntnisse auf breiter Basis; durch das qualitative Vorgehen werden tiefe Einsichten in ein untersuchtes Phänomen erzielt.

Dauer: ca. 5 Minuten

1.1 Quantitative Ansätze

In der quantitativen Forschung werden komplexe Zusammenhänge auf Aussagen reduziert, die durch Zahlenwerte ausgedrückt werden.

Beispiel:

Forscher erfassen die Ausgaben einer Tageszeitung innerhalb einer Woche und notieren darin, wie häufig einzelne Politiker aus dem Bundestag erwähnt werden. Anschließend zählen sie bei den Erwähnungen, ob sie die Politiker positiv, negativ oder neutral beschreiben. Die subjektiven Einstellungen der Forscher, ob sie die Positionen der Politiker in den Artikeln selbst befürworten oder ablehnen, dürfen dabei keine Rolle spielen.


Objektivität

Objektivität spielt daher in diesem Ansatz eine zentrale Rolle. Um objektive Messwerte zu erlangen, musst du die Bedingungen, unter denen das zu untersuchende Phänomen auftritt, so weit wie möglich kontrollieren. Störfaktoren, welche das Ergebnis verfälschen könnten (z.B. Verständnisprobleme der Probanden, Beeinflussung der Probanden durch den Untersucher) sind zu eliminieren, um objektivierbare sowie vergleichbare Ergebnisse zu erzielen und allgemeingültige Gesetze aufstellen zu können. Dafür benötigst du eine große Zahl von Fällen, da du nur so Aussagen über eine Verallgemeinerung treffen kannst. Wegen des hohen Maßes der Standardisierung und der Verwendung statistischer Auswertungsverfahren werden quantitative Methoden auch als hart oder starr bezeichnet.

Linearer Forschungsprozess

Quantitative Untersuchungen zeichnen sich durch ihren linearen Forschungsprozess aus: Erst wird eine Forschungsfrage oder Hypothese entwickelt, die dann durch eine quantitative Methode überprüft wird.

grafik

Im Ergebnis des Verfahrens möchtest du die zuvor aufgestellte Hypothese widerlegen. Laut dem quantitativen Ansatz ist es nämlich nicht möglich, eine Hypothese als wahr zu bestätigen (Verifikation), da du niemals alle denkbaren Fälle untersuchen kannst. Für die Widerlegung einer Hypothese (Falsifikation) reicht es hingegen aus, einen einzigen gegenteiligen Fall zu finden. So bewährt sich eine Annahme also nur, solange sie nicht widerlegt werden kann. In der quantitativen Forschung werden also Hypothesen überprüft, die vorher aus einer Theorie abgeleitet wurden (= deduktiv). Dieses Vorgehen bedeutet, dass man von einer allgemeinen Annahme oder Theorie auf einen Einzelfall schließt.

1.2 Qualitative Ansätze

Im Gegensatz zur quantitativen, an Zahlen orientierten Forschungsweise versuchst du bei der qualitativen Forschung durch eine Verbalisierung der Erfahrungen detaillierte, subjektive und individuelle Erkenntnisse über Einstellungen und Handlungen zu erlangen. Hierfür untersuchst du Einzelfälle auf ihre Besonderheiten hin und schließt anhand der Ergebnisse auf allgemeingültige Aussagen, was als induktives Vorgehen bezeichnet wird.

Beispiel:

Forscher befragen eine einzelne Journalistin in einer Tageszeitungsredaktion, wie sie gegenüber bestimmten Politikern eingestellt sind, wie ihre Kollegen ihrem Glauben nach eingestellt sind und ob sie von diesen eigenen und angenommenen Einstellungen ihre Berichterstattung über Politiker beeinflussen lassen.


Subjektivität

In der qualitativen Forschung steht das Subjekt, also der Mensch, an zentraler Stelle. Die Wirklichkeit wird nicht auf Zahlen reduziert, sondern in ihrer Ganzheit erhoben. Die Untersuchung erfolgt im natürlichen Umfeld, um so nah wie möglich an die individuellen Lebenssituationen anzuknüpfen. Ebenso stehen die Kommunikation und Interaktion zwischen dem Forscher und den Untersuchten im Mittelpunkt. Der Forscher, seine Reflexionen und die Subjektivität der Beteiligten besitzen in qualitativen Untersuchungen große Bedeutung und fließen in die Interpretation ein.

Prinzip der Offenheit

Qualitative Methoden folgen dem Prinzip der Offenheit, d.h. der Untersuchungsgegenstand wird kaum vorstrukturiert und die Methoden sollen so offen gestaltet werden, dass sie auch komplexe Gegenstände in ihrer Ganzheit sowie in ihrem natürlichen Kontext erfassen. Durch diese Offenheit kannst du im Verlauf der Forschung notwendige Ergänzungen oder Veränderungen vornehmen und auch neue, bedeutend erscheinende Fälle hinzuziehen, um deine Theorie zu kontrollieren oder zu revidieren. Generell wählst du die untersuchten Fälle im Gegensatz zu den Stichproben quantitativer Verfahren bewusst aus, was als Theoretisches Sampling bezeichnet wird. Durch diese Flexibilität und Offenheit des Vorgehens ergibt sich der Explorationscharakter qualitativer Forschung. Das bedeutet, dass besonders neue Aspekte erforscht werden.

Deshalb werden qualitative Methoden im Gegensatz zu den starren, harten quantitativen Methoden auch als weich bezeichnet.

Zirkulärer Ablauf

Das qualitative Vorgehen zeichnet sich durch seinen zirkulären Ablauf aus. Die Erhebung der Daten und ihre Auswertung ist nicht strikt voneinander getrennt, bestimmte Schritte werden mehrmals durchlaufen und auch verändert, worin sich die hohe/höhere Flexibilität begründet.

grafik

Alle genannten Aspekte (zirkulärer Ablauf, geringe Standardisierung, Bedeutung der Subjektivität und Interaktion) unterstützen dabei das Ziel, den Untersuchungsgestand tief und detailliert zu erfassen.

Jede der beiden Forschungstraditionen hat aufgrund ihrer Besonderheiten und ihres Vorgehens individuelle Anwendungsbereiche sowie Vor- und Nachteile. Das bedeutet, dass es kein besseres oder schlechteres Vorgehen gibt – du musst je nach deinem Forschungsgegenstand und deiner Forschungsfrage abwägen, welche Methode besser für die Bearbeitung deiner Fragestellung geeignet ist.

Für einen guten Überblick über qualitative Verfahren kannst du den Lehrtext zur Veranstaltung "Qualitative Sozialforschung" heranziehen.

2. Quer- und Längsschnittdesigns

Unabhängig von der verwendeten Methode können sozialwissenschaftliche Untersuchungen nach einem bestimmten Erhebungsdesign ablaufen, welches den zeitlichen Ablauf der Datenerhebung definiert. Du unterscheidest dabei Querschnitt- sowie Längsschnittdesigns, wobei sich letztere wiederum in Trend- und Paneldesigns untergliedern.

Dauer: ca. 5 Minuten

Querschnittdesign

Bei Querschnittdesigns erstreckt sich die Datenerhebung auf einen bestimmten Zeitpunkt oder eine kurze Zeitspanne und wird nur einmalig vorgenommen, z.B. wenn es um die Bewertung von Marken geht. Bei Längsschnittdesigns hingegen werden zu mehreren Zeitpunkten Daten zu den gleichen Variablen erhoben, bspw. werden die Untersuchten dabei im Abstand von jeweils einem halben Jahr zu einer Marke befragt.

Längsschnittdesign

Längsschnittdesigns können in Panel- und Trenddesigns unterschieden werden. Der Unterschied zwischen Panel- und Trenddesigns besteht darin, dass bei einem Trenddesign unterschiedliche Stichproben untersucht werden (man könnte es also als wiederholte Querschnitterhebungen verstehen), während bei Paneldesigns bei jeder Datenerhebung eine identische Stichprobe herangezogen wird. Durch Paneldesigns lassen sich individuelle Veränderungen innerhalb der stets gleichbleibenden Stichprobe feststellen. Dadurch liefert eine Panelstudie die meisten Informationen, während ein Trenddesign immer noch mehr Daten generiert als eine Querschnitterhebung. Die Panelstudien eignen sich für die Erfassung von Einstellungsveränderungen und werden daher insbesondere im Bereich der Markt- und Meinungsforschung eingesetzt.

Alle Designs bringen allerdings auch Nachteile mit sich. Trenddesigns haben durch die stets wechselnde Stichprobe das Problem, dass tatsächliche Veränderungen (Trends) sich nicht immer nachweisen lassen. Panelstudien scheitern häufig daran, für die Erhebungen (Panelwellen) die gleiche Stichprobe zu erreichen. Verändert sich die Stichprobe, bspw. aufgrund von Umzug, Verweigerung oder Tod, spricht man von Panelmortalität. Diese ist vor allem deshalb problematisch, weil die Ausfälle oft nicht zufällig, sondern systematisch erfolgen, d.h. dass alle ausgefallenen Personen bestimmte Merkmale aufweisen, wodurch die Ergebnisse verzerrt werden könnten. Um die Panelmortalität möglichst gering zu halten, musst du mit einem erhöhten Aufwand rechnen, zum Beispiel durch gute Adressenpflege und die Ermittlung von Wohnortwechseln. Darüber hinaus ist auf Grund der zu erwartenden Ausfälle eine größere Stichprobe als bei Querschnittuntersuchungen erforderlich. Dies und die intensive Panelpflege verursachen natürlich auch höhere Kosten.

Weitere Probleme bei Panelstudien entstehen durch das zwischenzeitliche Geschehen und die Reifung der Probanden zwischen den Untersuchungszeitpunkten, vor allem wenn die zeitlichen Abstände relativ groß sind. Problematisch sind zudem die so genannten Paneleffekte, die beispielsweise die Ausbildung vor der Befragung noch nicht bestehender Einstellungen, die Verfestigung vorhandener Meinungen oder Verhaltensänderungen der Befragten durch die wiederholte Erhebung umfassen.

Um der Panelmortalität und den Paneleffekten möglichst entgegenzuwirken, wurden die Designs weiterentwickelt, z.B. alternierende Panels (Stichprobe wird in Subgruppen unterteilt, die abwechselnd befragt werden) und rotierende Panels (Stichprobe wird in Gruppen unterteilt, von denen bei jeder Panelwelle eine ausscheidet und durch eine neu ersetzt wird).

Querschnittdesigns können aber nicht nur Querschnittdaten liefern. Durch so genannte Retrospektivfragen zu Ereignissen in der Vergangenheit ist es möglich, in Querschnitterhebungen natürlich auch sämtliche Arten von Längsschnittdaten zu erheben. Ob dies sinnvoll ist, musst du anhand des individuellen Vorgehens prüfen, da sich Retrospektivfragen nicht immer eignen (z.B. bei Jahre zurückliegenden, subjektiven Empfindungen).

Vor- und Nachteile von Quer- und Längsschnittdesign

Querschnittdesigns Längsschnittdesigns
Eigenschaften Erhoben wird Material aus einem bestimmter Zeitpunkt oder einer kurzer Zeitspanne. Erhoben wird Material aus mehreren Zeitpunkten. Dieses wird miteinander verglichen. In Trenddesigns werden zu mehreren Zeitpunkten verschiedene Stichproben untersucht. In Paneldesigns wird zu mehreren Zeitpunkten immer dieselbe Stichprobe untersucht.
Vorteile Querschnittdesigns sind am einfachsten durchzuführen. Trenddesigns liefern mehr Informationen als ein Querschnittdesign. Paneldesigns liefern die meisten Informationen.
Nachteile Querschnittsdesign liefern am wenigsten Informationen. Trenddesigns lassen duch die wechselnde Stichprobe nicht immer Schlüsse auf tatsächliche Veränderungen (Trends) zu. Paneldesigns erreichen häufig dieselbe Stichprobe nicht mehr. Durch diese zu erwartenden Ausfälle ist eine größere Stichprobe notwendig und damit mehr Arbeit und höhere Kosten.

3. Befragung

Im Folgenden wird dir die Erhebungsmethode Befragung genauer vorgestellt, untergliedert nach quantitativen und qualitativen Befragungsformen. Dabei gibt es aber selten die Reinform, d.h. größtenteils quantitativ ausgerichtete Befragungen können auch qualitative Aspekte enthalten und umgekehrt. Prinzipiell wählst du in einem ersten Schritt die grundsätzliche Befragungsform aus (quantitative Fragebogenbefragung oder qualitative Interviews) und danach ergänzt du sie durch qualitative oder quantiative Elemente, falls dies deiner Forschungsfrage zuträglich ist.

Die Befragung ist die in den Sozialwissenschaften am häufigsten angewendete Erhebungsmethode. Dabei unterscheidet man zwischen wenig strukturierten, teilstrukturierten und stark strukturierten Befragungen. Die ersten beiden Varianten werden bei der qualitativen Befragung erläutert.

3.1 Quantitative Befragungen

Schriftlich versus mündlich

Quantitative Befragungen werden schriftlich und mündlich durchgeführt, wobei eine mündliche Befragung sowohl persönlich als auch telefonisch erfolgen kann. Die persönliche hat gegenüber der telefonischen Befragung den entscheidenden Vorteil, dass visuelle Hilfsmittel verwendet und dadurch auch komplexe Themenbereiche abgefragt werden können. Ebenso wie in der telefonischen Befragung kann in der face-to-face-Variante die Befragungssituation kontrolliert werden, d.h. du kannst beispielsweise sicherstellen, dass der Befragte selbst auf die Frage antwortet, was in einer schriftlichen Befragung nicht möglich ist. Die persönlichen Interviews sind allerdings mit einem hohen Zeit- und Kostenaufwand verbunden und es ist ein verzerrender Interviewereinfluss denkbar. Dieser ist bei telefonischen Interviews zwar auch möglich, allerdings beschränkt sich der Einfluss logischerweise auf die verbale Ebene; die Wirkung von Auftreten, Mimik und Gestik wird vermieden. Bei schriftlichen Befragungen entfällt der Interviewereinfluss gänzlich, allerdings musst du im Fragebogen alles gut erklären, da dem Beantwortenden kein Ansprechpartner für Nachfragen zur Verfügung steht. Mit telefonischen und schriftlichen Befragungen erreichst du kostengünstig in relativ kurzer Zeit viele regional verstreute Menschen, wobei der geringe Rücklaufquoten bei schriftlichen Befragungen meist ein Problem darstellt.

Onlinebefragung

Zunehmend werden schriftliche Befragungen auch als Onlinebefragungen durchgeführt. Dabei setzt man vor allem auf Gelegenheitsstichproben, das heißt auf Nutzer, die zufällig auf den Fragebogen stoßen und ihn beantworten. Dadurch ergibt sich jedoch eine eingeschränkte Verallgemeinerbarkeit der Ergebnisse, da überwiegend nur Personen erreicht werden, die online erreichbar und im Umgang mit dem Internet geübt sind sowie sich für das jeweilige Thema interessieren. Die Stichprobe ist damit selbstselektierend. Andererseits ist der entscheidende Vorteil, dass du auf diese Weise sehr kostengünstig sehr viele Menschen innerhalb kürzester Zeit erreichen kannst. Auch die Auswertung ist einfacher: Da die Daten bereits elektronisch eingegeben wurden, sind sie sofort verfügbar. Als weiterer Vorteil ist die mögliche Verwendung bildlicher Darstellungen (z. B. auch in Form von Video) zu nennen, die zum einen die Motivation erhöhen und zum anderen die Erläuterung komplizierter Sachverhalte unterstützen können.

Lime Survey

An der Universität Augsburg steht dir als Studierender des Studiengangs Medien und Kommunikation seit Wintersemester 2009/10 das Umfragetool Limesurvey zur Verfügung. Einen ersten Überblick über dieses Umfragewerkzeug erhältst du in diesem Video und auf den Wiki-Seiten von Limesurvey. Außerdem kannst du dich zu einer kurzen Einführung per E-Mail (tutoren@i-literacy.de) anmelden und erhältst dann einen Zugang, um deine eigene Umfrage anzulegen.

3.1.1 Qualitätskriterien quantitativer Befragungen

Standardisierung

Gemäß den Prinzipien des quantitativen Ansatzes werden die Befragungen vollkommen standardisiert, um eine Vergleichbarkeit der Daten und Ergebnisse zu gewährleisten. Die Formulierung der Fragen, ihre Reihenfolge sowie die Antwortmöglichkeiten und das Interviewerverhalten sind genau festgelegt und dürfen während der laufenden Erhebung nicht mehr modifiziert werden. Dadurch ergibt sich der entscheidende Vorteil, dass die Dauer einer Befragung sehr kurz ist. Doch es wird in Kauf genommen, dass Breite und Tiefe der Antworten sehr beschränkt sind. Die Standardisierung hat neben der Vergleichbarkeit der Antworten auch eine einfachere Durchführung, eine höhere Zuverlässigkeit sowie eine Reduktion von Fehlern zur Folge. Zudem sind die Interviews in der Auswertung schneller und dadurch preiswerter zu bearbeiten, weshalb innerhalb kurzer Zeit viele Daten erhoben und ausgewertet werden können.

Allerdings schließt eine hohe Standardisierung einige wenige offene Fragen (qualitative Fragen) ohne vorgegebene Antwortkategorien keinesfalls aus. Geschlossene Fragen sind jedoch grundsätzlich für den Befragten einfacher zu beantworten. Zudem stellen sie die notwendige Einheitlichkeit und damit Vergleichbarkeit sicher und sind leichter auszuwerten. Offene Fragen hingegen bewirken eine Ähnlichkeit zu alltäglichen Gesprächssituationen und helfen, Meinungsstrukturen aufzudecken.

Interviewerverhalten

In quantitativen mündlichen Interviews haben die Befragten fast ausschließlich die Rolle der Antwortenden, der Interviewer stellt ausschließlich Fragen, wodurch der Befragte in seinen Antworten nicht beeinflusst und ein hohes Maß an Objektivität erreicht wird. Übertriebene Neutralität kann die Gesprächsatmosphäre allerdings stören, weshalb eine angemessene Freundlichkeit wichtig ist. Das Ziel sind gleichgestaltete Befragungen, wodurch die Vergleichbarkeit der Interviews erhöht wird. Bezüglich des Interviewerverhaltens während den mündlichen Befragungen ist eine Schulung der Befragenden sinnvoll. Diese soll vor allem auch den Umgang mit (problematischen) Situationen im Interview trainieren und den Interviewern unter anderem alle erforderlichen inhaltlichen Kenntnisse vermitteln.

Pretest

Sehr sinnvoll ist ein Pretest vor der Hauptbefragung, um Fragebogenfehler hinsichtlich der Verständlichkeit, Vollständigkeit, Eindeutigkeit sowie Übersichtlichkeit rechtzeitig zu entdecken und zu beheben. Eine Checkliste (z.B. Bortz und Döring, 2005, S. 244, 250) hilft dir bei der abschließenden Überprüfung deines Konzeptes und weist auf viele Verzerrungseffekte sowie Fehlerquellen hin, die zu beachten sind.

3.1.2 Aufbau einer quantitativen Befragung

Bei der Fragebogengestaltung sind viele Faktoren zu beachten, die an dieser Stelle keinesfalls erschöpfend behandelt werden können. So spielen beispielsweise die Reihenfolge und die Formulierung der Fragen und Antworten eine wichtige Rolle.

Reihenfolge der Fragen

Zu Beginn einer Befragung stellst du erstmal Eröffnungsfragen, die eine Eisbrecherfunktion erfüllen und ein Vertrauensklima erzeugen. Wichtige (aber nicht heikle) Sachverhalte fragst du angesichts nachlassender Aufmerksamkeit am besten im zweiten Drittel des Fragebogens ab, wobei du Themenblöcke bilden solltest, damit keine Gedankensprünge notwendig sind. Heikle oder unangenehme Fragen (z.B. nach dem Einkommen) stelle besser erst am Schluss, damit bei einer eventuellen Antwortverweigerung keine schlechte Atmosphäre mehr für Folgefragen entstehen kann. Am Ende kannst du auch allgemein gehaltene Fragen, die nicht mehr direkt zum Thema gehören, stellen, um die eventuell aufgebauten Spannungen abzubauen. Auch soziodemografische Fragen nach Alter, Geschlecht etc. sind schnell zu beantworten und gehören an den Schluss (außer, sie besitzen eine Filterfunktion). Beachte bei der Erarbeitung deines Fragenbogens, dass einzelne Fragen einen Effekt auf nachfolgende Fragen haben können (z.B. wird eine Verschärfung des Strafrechts anders beurteilt, wenn vorher Kinder als Opfer von Verbrechen thematisiert wurden).

Frage- und Antwortformulierung

Sowohl deine Fragen als auch die Antworten müssen einfach, eindeutig, kurz und verständlich formuliert werden. Was sehr banal klingt, ist in der Praxis durchaus problematisch. Begriffe müssen eindeutig bestimmt werden, da jeder Befragte individuelle Assoziationen mit dem Begriff verbinden kann. Weiterhin vermeide doppelte Verneinungen und lege zeitliche Angaben stets eindeutig fest (z.B. "einmal in der Woche" statt "häufig" oder "manchmal"). Wichtig ist auch, dass sich jede Frage nur auf einen Aspekt bezieht und dass in den Fragen keine Suggestionen oder impliziten Unterstellungen enthalten sind (z.B. „Sind Sie auch der Meinung, dass…"). Hinsichtlich der Antworten achte unbedingt auf deren Vollständigkeit. Findet sich der Befragte in keiner Kategorie wieder, ist er irritiert.

Skalen

Außerdem musst du dir vorher überlegen, ob du lieber eine ungerade Skala (also mit fünf, sieben, oder neun Antwortmöglichkeiten; etwa: sehr gut, eher gut, teils teils, eher schlecht, sehr schlecht) oder eine gerade Skala (mit vier, sechs oder acht Antworten) möchtest. Bei einer ungeraden Skala lässt sich eine „Tendenz zur Mitte“ beobachten, d.h. die Befragten tendieren dazu, „teils teils“ anzukreuzen, weil es die unverbindlichste Aussage ist. Bei einer geraden Skala gibt es keine Mitte, der Befragte wird also zu einer Entscheidung gezwungen (auch wenn er eigentlich keine Tendenz in eine Richtung hat). Bortz und Döring (2005, S. 254ff.) geben eine ausführliche Übersicht zur Formulierung von Fragen.

3.2 Qualitative Befragungen

In qualitativen, wenig strukturierten Befragungen wird der Beziehung zwischen den Befragten und dem Interviewer eine bedeutende Rolle zugeschrieben. Du als Interviewer sollst dich dabei um eine natürliche Situation bemühen, um Hemmschwellen abzubauen und möglichst authentische Informationen zu erhalten. Daher erfolgt die Durchführung im Regelfall mündlich und im Gegensatz zu quantitativen Befragungen sind auch Gruppenbefragungen möglich. Das Interview soll sich dabei einem Alltagsgespräch annähern, weshalb auch von einer längeren Gesprächsdauer auszugehen ist. Der Interviewer ist selbst ein „Erhebungsinstrument“, da seine Gedanken, Gefühle und Reaktionen als Informationsquellen dienen und berücksichtigt werden.

Das qualitative Interview erfüllt das Prinzip der Offenheit, indem der Interviewer auf unerwartete Aspekte eingeht und die Fragen offen stellt. Auch das Prinzip der Flexibilität ist verwirklicht, da sich der Interviewer an die individuellen Bedürfnisse des Befragten anpasst und die Auswahl der Fälle nach dem Theoretischen Sampling erfolgt. Zielstellung qualitativer Befragungen sind tiefere Erkenntnisse sozialer Sachverhalte als sie in standardisierten Befragungen zu gewinnen sind. Um einen Informationsverslust zu verhindern, werden Aufzeichnungsgeräte verwendet, die eine nachträgliche schriftliche Auswertung ermöglichen.

Es gibt einige Varianten von qualitativen Interviews, die im Folgenden erläutert werden.

3.2.1 Narratives Interview

Das narrative Interview ist als erzählendes Interview zu charakterisieren. Hier sollen durch Erzählanregungen erfahrungsnahe, subjektive Aussagen über Erlebnisse und Erfahrungen der Befragten gewonnen werden. Der Forscher soll dabei gemäß dem qualitativen Verständnis vor dem Interview möglichst kein theoretisches Konzept entwickeln.

Ablauf

Ein narratives Interview gliedert sich in fünf Abschnitte:

Zu Beginn gibt es eine Erklärungsphase, in der der Befragte über die Funktion und die Besonderheiten des Interviews aufgeklärt wird, um seine informierte Einwilligung zu erhalten. Es folgt eine Einleitungsphase, in welcher der Interviewer den Befragten mit Hilfe eines Erzählanstoßes, z.B. durch eine kleine Geschichte oder eine Zusammenfassung von Rahmendaten und Hintergründen zum Erzählen bringen möchte. Der Befragte erzählt dann seine Geschichte zum Befragungsthema. Die stellt den Hauptteil des Interviews dar. Der Interviewer sollte währendessen möglichst nonverbal sein Interesse und Verständnis signalisieren und den Erzählenden nicht unterbrechen, um möglichst ausführliche Darstellungen anzuregen. Erst in der Nachfragephase klärt der Interviewer schließlich offen gebliebene Hintergründe, Details und Widersprüchlichkeiten durch direktes Nachfragen. Das Interview kann optional mit einer Bilanzierungsphase abgeschlossen werden, in welcher der Befragte zu einer abschließenden Bewertung seiner Geschichte angeregt wird und ihm direkte Fragen nach Motivation oder Intention gestellt werden.

Vorteile des narrativen Interviews

Die Wahl dieser Form des Interviews hat den entscheidenden Vorteil, dass „Zugzwänge“ den Befragten dazu bringen, mehr Informationen zu offenbaren als bei direktem Nachfragen. Zum einen spielt der Detaillierungszwang eine Rolle, durch den sich der Erzählende darum bemüht, alle Motive und Zusammenhänge möglichst vollständig, verständlich und ausgewogen zu gestalten. Zusätzlich fordert der Kondensierungszwang, dass der Befragte (eigene) Schwerpunkte setzt. Ein weiterer entscheidender Vorteil ist, dass der Berichtende eine eigene Interpretation erzählten Handelns mitliefert, was ebenfalls einen entscheidenden Vorteil darstellt.

3.2.2 Rezeptives Interview

Das rezeptive Interview ist eine verdeckt stattfindende Befragung, bei der der Interviewer ausschließlich Zuhörer ist. Dadurch sollen Reaktionen des Befragten auf die Interviewsituation oder den Interviewer ausgeschlossen werden.

Ablauf

Um Einseitigkeit zu vermeiden und eine maximale strukturelle Variation zu erreichen, gibt es vier Strategien:

Erstens können die Situation, der Ort und insbesondere der Zeitpunkt des Gesprächs verändert werden. So lässt sich das Thema häufiger und bei verschiedenen Gelegenheiten behandeln.

Zweitens ist eine Änderung des Informanten denkbar, das heißt, man spricht mit mehreren Personen über das gleiche Thema.

Drittens kann der Interviewer selbst geändert werden. Der Befragte kann also mehrmals von verschiedenen Personen interviewt werden, um Details und Widersprüche herauszufinden.

Viertens ließe sich durch eine maximale Variation, u.a. durch das Einbeziehen anderer Verfahren (bspw. die teilnehmende Beobachtung), erreichen.

Der Einstieg in das Interview erfolgt auf zwei Arten: Entweder sucht die Auskunftsperson von sich aus das Gespräch mit dem Forscher suchen oder der Forscher leitet das Gespräch durch allgemeine, gegenstandsorientierte Fragen ein. Ist das Gespräch in Gang gekommen, sollte sich der Forscher passiv verhalten und den Erzählenden nur durch Mimik und Gestik positiv bestärken. Dadurch bleibt das rezeptive Interview befragtenzentriert, d.h. es ist der Lebenswelt des Informanten direkt entnommen und besitzt ein großes Forschungspotential.

Vorteile des rezeptiven Interviews

Diese Form des Interviews stellt von allen qualitativen Befragungen die offenste dar, da nicht nur die Antworten, sondern sogar die Fragen offen sind, denn der eigentliche Gegenstand des Gesprächs wird durch den Befragten bestimmt.

3.2.3 Fokussiertes Interview

Ablauf

Bei diesem Interviewtyp steht ein bestimmter Untersuchungsgegenstand im Fokus des Gesprächs. Dieser Gegenstand kann ein Stimulus sein, der den Probanden vorgegeben wurde, oder ein Ereignis, das diese erlebt haben, beispielsweise die Rezeption eines bestimmten Films. Diese Situation wird vom Forscher verdeckt beobachtet und analysiert. Aus den Erkenntnissen heraus formuliert er Hypothesen, die in einen Interviewleitfaden münden. Anschließend werden die Interviews durchgeführt, um mehr über die Erfahrungen der Probanden herauszufinden. Die Äußerungen des Befragten können die Hypothesen bestätigen, widerlegen oder neue Erklärungsansätze liefern. Die Hypothesen werden folglich mit der sozialen Welt konfrontiert und dabei getestet.

Vorteile des fokussierten Interviews

Somit ist das fokussierte Interview eine Kombination aus einer verdeckten Beobachtung und einem Interview. Es prüft zudem die Hypothesen, weshalb es sich der quantitativen Forschung annähert. Daher kann es als eine Kombination der quantitativen und qualitativen Herangehensweise gesehen werden.

3.2.4 Problemzentriertes Interview

Das problemzentrierte Interview kann als Sonderform des narrativen Interviews gesehen werden. Auch hier stehen Erzählungen der Probanden im Mittelpunkt, jedoch spielt der Interviewer auch während der Erzählphase eine aktive Rolle.

Das Interview basiert auf einem Konzept eines gesellschaftlichen Problembereichs, welches in einen Leitfaden überführt wird. Die Annahmen des Forschers werden dann während des Interviews durch die Aussagen des Befragten laufend modifiziert bzw. bestätigt. Diese Form des Interviews eignet sich besonders für die Erhebung mentaler Modelle, also Schemata, die sich der Mensch im Kopf zurecht legt um etwas (meist vereinfacht) zu erklären.

Ablauf

Ein problemzentriertes Interview gliedert sich in folgende Abschnitte:

Optional legt der Interviewer dem Befragten vor dem Gespräch einen (1) Kurzfragebogen vor, um entsprechende Gedächtnisinhalte im Voraus zu aktivieren und damit den Einstieg in das Gespräch zu erleichtern. In der (2) Einleitungsphase wird der Interviewte, wie im narrativen Interview auch, über die Gesprächsstruktur und den Problembereich aufgeklärt. Anschließend stimuliert der Interviewer die (3) Erzählphase durch ein Erzählbeispiel. Schließlich geht es darum, die (4) mentalen Modelle des Befragten zu verstehen.

Der Interviewer hat dabei drei Möglichkeiten:

  • Er kann dem Befragten ein Interpretationsangebot unterbreiten und dieses durch den Interviewten kontrollieren und gegebenenfalls korrigieren lassen.
  • Der Interviewer stellt dem Befragten eine Verständnisfrage, um widersprüchliche oder ausweichende Antworten zu thematisieren.
  • Er konfrontiert den Befragten direkt mit aufgetretenen Widersprüchen oder Ungeklärtem.

Zu Abschluss können noch direkte Fragen zu Themenbereichen, die der Befragte noch nicht genannt hat, gestellt werden.

3.2.5 Gruppenbefragungen

Neben den bisher thematisierten Einzelinterviews sind auch Gruppenbefragungen möglich. Der Vorteil von Befragungen in der Gruppe liegt darin, dass durch das gemeinsame Diskutieren von Fragen in der Gruppe eine größere Datendichte (sprich mehr Überlegugnen, Ideen) erzeugt wird, als in Einzelinterviews.

Die Gruppendiskussion (auch: Focus Group) unterscheidet sich von der Gruppenbefragung, indem das Element der Diskussion stärker heraustritt und unterstützt wird. Die Gruppendiskussion ist ein wichtiges Erhebungsinstrument in der Markt- und Meinungsforschung. Die Ziele sind, sowohl die Meinungen und Einstellungen einzelner Teilnehmer, als auch die der ganzen Gruppe zu erkunden. Darüber hinaus möchte man öffentliche Meinungen und Einstellungen herausfinden sowie Prozesse der Meinungsbildung in Gruppen untersuchen.

Ablauf

Die Gruppendiskussion wird vom Diskussionsleiter mit einem Grundreiz oder einer allgemein gehaltenen Frage zum Thema angestoßen. Die weitere Aufgabe des Diskussionsleiters besteht darin, die Teilnehmenden zu Äußerungen zu ermuntern und darauf zu achten, dass die Diskussion nicht ausufert und sich plötzlich vom eigentlichen Thema der Untersuchung entfernt. Bei der Durchführung der Gruppendiskussion muss darauf geachtet werden, dass sich ein selbstläufiger Diskurs bildet, d.h. es sollte ein Gespräch unter den Teilnehmenden stattfinden und kein Dialog zwischen Diskussionsleiter und den Teilnehmenden. Aufgezeichnet wird mit einem Aufnahmegerät oder der Videokamera. Zusätzlich kann neben dem Diskussionsleiter ein Assistent anwesend sein, der den Diskussionsverlauf und den Sprecherwechsel schriftlich festhält sowie auf Körperhaltung, Gestik und Mimik der Diskussionsteilnehmenden achtet.

3.2.6 Leitfadeninterviews

Einige Formen qualitativer Interviews werden unter Zuhilfenahme eines Leitfadens durchgeführt. Damit entsprechen sie der teilstrukturierten Befragung. Leitfadeninterviews sind die gängigste Form qualitativer Befragungen, da sie zwar bestimmte Vorgaben zur Gestaltung des Interviews haben, aber gleichzeitig viel Raum für das freie Erzählen und neue Gesprächsrichtungen bleibt. Du stellst im Leitfaden die zu bearbeitenden Punkte zusammen und differenzierst und formulierst ihn unterschiedlich genau aus.

Vorteile des Leitfadeninterviews

Durch den Einsatz dieses Leitfadens wird die Vergleichbarkeit der Daten erhöht und diese gewinnen eine Struktur. Zudem wird durch diesen sichergestellt, dass du keine wesentlichen Aspekte übersiehst. Er fokussiert das Interview auf das Thema, da er die interessierenden Themen aus möglichen anderen Gesprächsthemen herausfiltert. Die Erstellung des Leitfadens dient zudem der Organisation des eigenen Hintergrundwissens.

Mit dieser Form des Interviews ist die Erwartung verbunden, dass die Sichtweisen der Befragten in der relativ offenen Gestaltung der Interviewsituation eher zur Geltung kommen als in standardisierten Befragungen, da der Befragte auf die mehr oder minder offen formulierten Fragen des Leitfadens frei antworten kann (und keine Antwortmöglichkeiten vorgegeben sind). Diese Art des Interviews orientiert sich am Prinzip der Offenheit und Alltagsnähe qualitativer Forschung. Daher soll der Leitfaden nicht als zwingendes Ablaufmodell des Gesprächs gelten und immer dann in den Hintergrund treten, wenn die Befragten eigene Schwerpunkte setzen oder besondere Relevanzen erkennen lassen und eine Annäherung an einen natürlichen Gesprächsverlauf ermöglichen.

Einschränkungen

Problematisch sind unter anderem die höheren Anforderungen an den Interviewer und die intensivere Schulung. Schließlich ist die Qualität des Interviews in hohem Maße vom Interviewer abhängig, der vor allem auch großen Einfluss auf die zu befragende Person nehmen kann. Darüber hinaus ist eine hohe sprachliche und soziale Kompetenz der Befragten notwendig und es muss mit einem hohen Zeitaufwand gerechnet werden. Durch die eingeschränkte Strukturierung von Leitfadeninterviews sind sie im Vergleich zu stark strukturierten Befragungen schwieriger auszuwerten und die Ergebnisse haben eine geringere Vergleichbarkeit.

3.2.7 Experteninterviews

Experten sind Personen, die auf einem speziellen Gebiet über klares und abrufbares Spezial- und praktisches Insiderwissen verfügen, und daher stellvertretend für eine Vielzahl zu befragender Akteure interviewt werden können. In Experteninterviews, die in der Regel als leitfadengestützte Interviews geführt werden, wird der Experte nicht als Einzelfall, sondern als Repräsentant einer Gruppe von bestimmten Experten und als „Zeuge“ der interessierenden Sachverhalte einbezogen.

Vorteile des Experteninterviews

Dem Leitfaden kommt bei dieser Interviewform eine stärkere Steuerungsfunktion als beim Leitfadeninterview zu. Nichtrelevante Themen sollen damit von vornherein ausgeschlossen werden. Um das Wissen der Experten zu erschließen, sind Einzelinterviews am besten geeignet, da man sich auf diese Weise ganz auf den Gesprächspartner konzentrieren kann. Ziel ist eine systematische Informationsgewinnung, bei welcher der Experte die Tatbestände sowie seine Sicht der Dinge darstellt. Beim Experteninterview steht darüber hinaus die thematische Vergleichbarkeit der Daten im Vordergrund.

4. Beobachtung

Ziel der Beobachtung

Die wissenschaftliche Beobachtung ist im Gegensatz zu Alltagsbeobachtungen systematisch, standardisiert, zielgerichtet, intersubjektiv nachprüfbar und methodisch kontrolliert (Bortz & Döring, 2005, S. 262). Das Ziel einer Beobachtung ist, die soziale Wirklichkeit zu beschreiben und festzuhalten, so dass du mit diesen Daten seine Forschungsfrage beantworten kannst. Sie ist immer dann geeignet, wenn du das Verhalten von Personen unabhängig von ihrer subjektiven Einschätzung erheben willst, denn ein Fragebogen kann lediglich eine Selbsteinschätzung erheben. Die Beobachtung solltest du immer dann (z.B. auch zusätzlich zu einer Befragungsstudie) einsetzen, wenn du Verhalten auswerten bzw. analysieren möchtest. Schließlich können in Befragungen erhobene Selbstbeschreibungen möglicherweise nicht mit dem tatsächlichen Verhalten übereinstimmen. Außerdem ermöglicht dir die Beobachtung, erste Informationen in einem neuen Untersuchungsterrain zu sammeln, Gestik und Mimik der Untersuchten zu erheben/verfolgen sowie Interaktionsmuster und Gruppenbildungsprozesse zu erfassen. Besonders bietet sich eine Beobachtung auch bei Situationen an, in denen Befragungen nicht möglich oder wenig erfolgversprechend sind (z.B. bei Kindern oder sozial abweichendem Verhalten). Wenn du eine Beobachtung durchführen willst, beachte allerdings, dass damit ein sehr hoher Aufwand verbunden ist und im Gegensatz zur Befragung nur geringe Fallzahlen möglich sind.

Typen von Beobachtungen

Es gibt sowohl quantitative als auch qualitative Beobachtungen – der Unterschied besteht im Grad ihrer Strukturierung. Strukturierte (quantitative) Beobachtungen werden nach einem Beobachtungsplan mit vorgegebenen Kategorien durchgeführt und zählen zum quantitativen Ansatz. Du berücksichtigst nur, was du vorher festlegst und was du in Kategorien einordnen kannst. Außerdem werden qualitative Beobachtungen ausschließlich in natürlichen Situationen („Feldsituation“) durchgeführt, während im Quantitativen oftmals künstliche Laborsituationen zum Einsatz kommen (Näheres hierzu bei der qualitativen Beobachtung).

Neben dem Grad der Strukturierung kann man Beobachtungen auch noch in offene bzw. verdeckte sowie teilnehmende bzw. nicht-teilnehmende Beobachtungen unterteilen. Zu beachten ist, dass die vorgestellten Kategorien extreme Ausprägungen darstellen. Bei den drei genannten Dimensionen strukturiert – unstrukturiert, offen – verdeckt und teilnehmend – nicht-teilnehmend gibt es jeweils Zwischenstufen.

Vor- und Nachteile der Beobachtungsformen

In den Tabellen siehst du die Vor- und die Nachteile der jeweiligen Beobachtungsform.

Offene Beobachtung Verdeckte Beobachtung
Probanden wissen über die Erhebung Bescheid. Können reaktives Verhalten hervorrufen (z.B. sozial erwünschtes Verhalten, antikonformes Verhalten) Probanden wissen nicht über die Erhebung bescheid. Sind nicht-reaktiv. Sind forschungsethisch bedenklich (Täuschung der Probanden). Notwendig, um sonst nicht sichtbares Verhalten zu erforschen (etwa Sektenaktivitäten).
Teilnehmende Beobachtung Nichtteilnehmende Beobachtung
Beobachter/in übernimmt aktive Rolle in der Erhebungssituation. Durch aktive Mitarbeit können mehr Einsichten erhoben werden, als bei reiner außenstehender Beobachtung. Es besteht das Risiko, dass Beobachter/ in das Geschehen beeinflusst. Distanz zum Beobachteten darf nicht verloren gehen. Schwierigkeit, gleichzeitig aktiv zu sein und die Beobachtung zu dokumentieren. Meist bei qualitativen Beobachtungen verwendet. Beobachter/in ist KEIN Teil der Erhebungssituation. Geschehen wird nicht durch das Verhalten der/des Beobachters/in beeinflusst. Distanz zum Untersuchungsgegenstand wird gewahrt. Häufig auch in Kombination mit verdeckter Beobachtung, damit keine Verhaltensänderung aufgrund der Anwesenheit des/der Forschers/in auftritt.

Kombination mit anderen Verfahren

Um Fehlerquellen abzumildern, kann die Beobachtung mit anderen Verfahren, beispielsweise Interviews, kombiniert werden. In den Interviews kannst du z.B. deine Beobachtungsergebnisse schildern und den Interviewten bitten, das beobachtet Verhalten zu erklären etc. Zudem können verschiedene Beobachter und ein strukturiertes Beobachtungsschema eingesetzt werden, um die Aussagekraft der erhobenen Daten zu steigern, das Problem der selektiven Wahrnehmung abzumildern und Fehlinterpretationen zu vermeiden. Hierbei werden im Übrigen gemischtgeschlechtliche Teams empfohlen, da Frauen anders beobachten als Männer und ihnen daher andere Dinge auffallen.

4.1 Quantitative Beobachtungen

Quantitative Beobachtungen zeichnen sich durch eine hochstrukturierte, theoriegeleitete und kontrollierte Wahrnehmung, Aufzeichnung sowie Auswertung aus.

Zuerst werden konkrete Forschungshypothesen, ein Beobachtungsschema und Beobachtungskategorien entwickelt. Mögliche Verzerrungen der Ergebnisse werden beachtet und intensiv diskutiert und der Erhebung liegt ein strukturiertes Beobachtungsschema zugrunde.

Sehr wichtig ist in diesem Zusammenhang auch die Durchführung eines Beobachtertrainings. In diesen wird jeder Beobachter in das Konzept der Untersuchung eingeführt, damit er seine Aufgabe verstehen kann. Allerdings sollte die konkrete Forschungsfrage verschwiegen werden, damit keine Beobachtereffekte auftreten können (z.B. verstärkt selektive Wahrnehmung). Auch eine Generalprobe bietet sich an, um den Beobachtungsplan zu prüfen.

4.2 Qualitative Beobachtungen

Natürliche Situationen

In qualitativen Beobachtungen beobachtest du im Gegensatz zu quantitativen durchgängig natürliche Situationen. Auch in der Strukturierung unterscheiden sich die beiden Methoden stark. Außerdem handelt es sich bei dieser qualitativen Methode meist um eine teilnehmende Beobachtung, welche in der qualitativen Sozialforschung stark verbreitet ist. Der Beobachter steht bei dieser Methode der Feldforschung nicht passiv außerhalb des Gegenstandsbereiches, sondern nimmt selbst an der sozialen Situation teil.

Halbstandardisiert

Im Gegensatz zur stark standardisierten quantitativen Beobachtung wird in der qualitativen halb-standardisiert gearbeitet. Du orientierst dich an einem Beobachtungsleitfaden, in dem du vorab die wichtigsten Beobachtungsdimensionen zusammengestellt hast. Dieser Leitfaden dient als Grundlage für die Erstellung der Beobachtungsprotokolle, damit vergleichbare und so auch leichter verallgemeinerbare Daten erhoben werden können. Diesen Beobachtungsleitfaden solltest du nicht zu sehr differenzieren, da du sonst Ereignisse, die nicht vorgesehen waren, eventuell nicht ehr wahrnimmst.

Teilnehmende Beobachtung

Bei der teilnehmenden Beobachtung musst du selbst mehr und mehr zum Teilnehmer werden und Zugang zu Feld und Personen finden. Du musst durch die Beobachteten/Teilnehmer aufgenommen und akzeptiert werden, um nicht als Störfaktor zu wirken. Hilfreich kann hier das Zurückgreifen auf Schlüsselpersonen sein, die dich einführen und Kontakte herstellen.

Ist der Zugang zum Feld hergestellt, kann die eigentliche Beobachtungsphase beginnen. Auf der Basis der Beobachtungskriterien und des Leitfadens kannst du im Verlauf der Forschung möglichst detaillierte Beobachtungsprotokolle anfertigen, um auf diese Weise dichte Beschreibungen des Feldes zu gewinnen.

Dadurch, dass du selbst aktiv am Untersuchungsgegenstand beteiligt bist, kannst du schnell deine kritische Außenperspektive verlieren, die für die Untersuchung wichtig ist. Es kann passieren, dass du die im Feld geteilten Sichtweisen unhinterfragt übernimmst. Dieser Prozess wird allerdings nicht (wie in der quantitativen Beobachtung) nur als Fehler des Beobachters dargestellt. Er kann auch als wertvolles Instrument genutzt werden, um die Perspektivenübernahme und Integration zu analysieren und so weitere Einsichten zu gewinnen. Im Idealfall solltest du eine Mittelstellung einnehmen und sowohl engagiert sein als auch die (mentale) Distanz wahren.

Anwendungsgebiete

Als Anwendungsgebiete der halb-standardisierten teilnehmenden qualitativen Beobachtung sind jene sozialen Gegenstandsbereiche zu nennen, die von außen schwer einsehbar sind und nur durch aktive Teilnahme erschlossen werden können (z.B. Punk-Szene).

5. Experiment

Das Experiment - eine Untersuchungsanordnung, keine Methode

Ein wissenschaftliches Experiment ist eine Untersuchungsanordnung, mit der Kausalzusammenhänge (Ursache - Wirkung) überprüft werden. Streng genommen handelt es sich hier nicht um eine Methode, sondern das Experiment bezeichnet lediglich die Form der Untersuchung (Untersuchungsanordnung). Die Befragung und die Inhaltsanalyse sind Erhebungsmethoden, die experimentell oder nicht-experimentell angelegt sein können.

Ziel

Experimente dienen der Überprüfung von Kausalzusammenhängen, d.h. mit ihnen kannst du die Ursache für bzw. Wirkung von einem Stimulus (Treatment, unabhängige Variable) ermitteln. Um die Ursache für eine bestimmte (Aus)Wirkung nachzuweisen, musst du zwei Gruppen von Versuchspersonen gegenüber stellen. Die Merkmale der Gruppen (Alter, Geschlecht, Bildungsstand) dürfen sich nur im Stimulus (Ursache) unterscheiden, um zu einem aussagekräftigen Ergebnis zu kommen. Die Ursache wird dabei nur in der Experimentalgruppe manipuliert und ihr Einfluss auf die messbaren abhängigen Variablen untersucht. Die zweite Gruppe dient als Kontrollgruppe.

5.1 Kontrolle von Bedingungen und Variablen

Kontrolle der natürlichen Bedingungen

Um den Ursache-Wirkung-Zusammenhang in einem Experiment nachzuweisen, musst du die natürlichen Bedingungen ständig kontrollieren und eine künstliche Situation schaffen, in der nur die einzige unabhängige Variable für die vermutete Wirkung als Ursache in Frage kommt. Dabei wird diese Variable systematisch variiert und anschließend wird gemessen, welchen Effekt diese Veränderung auf die abhängige Variable hat.

Die Variablen, deren Einfluss durch die Kontrolle verhindert werden soll, nennt man Störvariablen oder intervenierende Variablen. Sie beeinträchtigen das Experiment und ein eindeutiger Zusammenhang zwischen vermuteter Ursache und Wirkung kann eventuell nicht mehr genau hergestellt werden, da nun ein weiterer Faktor außer dem Stimulus vorliegt, der ebenfalls Auswirkungen auf die abhängige Variable hat. Die Gefahr des Auftretens von Störvariablen ist größer, je komplexer der Stimulus ist, weil es dann schwerer wird, alles bis in das kleinste Detail zu kontrollieren. Du musst deshalb das Experiment möglichst so aufbauen, dass nur ein kleines Detail manipuliert wird, in dem sich Experimental- und Kontrollgruppe unterscheiden.

Techniken zur Kontrolle der Störvariablen

a) Bei der Elimination werden alle intervenierenden Variablen ausgeschaltet. Dies ist meist nur bei Laborexperimenten möglich, auf die später noch eingegangen wird.

b) Das Verfahren der Konstanthaltung wird angewandt, wenn nicht alle Störvariablen ausgeschaltet werden können. So treten bei fast jedem Versuch bestimmte, mitunter unvermeidliche Nebeneffekte auf. Im Zuge der Konstanthaltung versucht man nun, den Einfluss solcher Effekte bei beiden Gruppen gleichbleibend zu halten.

c) Bei der Methode der Parallelisierung, auch Matching genannt, werden die für das Experiment bedeutungsvollen Merkmale bewusst gleichmäßig auf die Gruppen verteilt, so dass von einem Personenpaar mit übereinstimmenden Eigenschaften je eine Person der Experimental- und die andere der Kontrollgruppe zugeordnet wird (z.B. gleich viele Frauen und Männer in beiden Gruppen). Dieses Vorgehen ist mit einem erheblichen Aufwand verbunden, weil du vorher die jeweiligen Merkmale bei allen Personen identifiziert musst, was meist durch einen Fragebogen geschieht. Zum anderen erhältst du durch diese Technik keine genauen Informationen über die nicht genau identifizierten Merkmale, welche dadurch sehr ungleichmäßig auf die Gruppen verteilt sein können.

d) Diese ungleiche Verteilung der unbekannten Eigenschaften wird durch Randomisierung ausgeschaltet. Zu diesem Zweck werden die Personen durch Zufallsauswahl auf die Gruppen verteilt. Dafür musst du ein Zufallskriterium auswählen, das auf keinen Fall mit dem experimentellen Stimulus in Verbindung steht (z.B. das Geburtsdatum). Es kann angenommen werden, dass sich potenzielle Störvariablen nun gleichmäßig auf die Gruppen verteilen und somit keine Gefahr mehr darstellen. Allerdings funktioniert die Randomisierung nur bei größeren Gruppen gut, denn je größer die Gruppe, umso größer die Wahrscheinlichkeit, dass die Merkmale anschließend auch gleichmäßig verteilt sind.

Auch während der Durchführung ist eine Kontrolle der Störvariablen erforderlich. Vor allem die Rahmenbedingungen (z.B. Räumlichkeiten, Behandlung der Versuchspersonen) musst du konstant halten.

Vom Versuchsleiter verursachte Effekte

Außerdem musst du durch den Versuchsleiter verursachte Effekte ausschließen. Der Versuchsleiter ist in der Regel nicht der Forscher, sondern eine eigens für diese Zwecke ausgebildete Person. Durch diese Versuchsanordnung wird versucht, eine größtmögliche Objektivität zu erreichen, denn der Forscher könnte bei der Durchführung aufgrund seiner Erwartungen die Versuchspersonen bewusst oder auch unbewusst beeinflussen. Auch der Versuchsleiter kann durch sein Verhalten Sympathien oder Antipathien hervorrufen oder auch eine Erwartungshaltung aufweisen, welche die Teilnehmer beeinflusst. So genannte Doppelblindversuche werden oftmals verwendet, um diese Effekte auszuschalten. Das heißt, dass weder die untersuchten Personen noch der Versuchsleiter das Ziel und den Hintergrund des Experiments kennen. Dadurch kann sich der Versuchsleiter nicht gemäß den Erwartungen des Versuchs verhalten und die Beteiligten können sich nicht an seinem Verhalten orientieren.

5.2 Interne und externe Validität und Ablauf

Interne und externe Validität

Im Zusammenhang mit Experimenten sind die Begriffe der internen und externen Validität besonders wichtig. Die interne Validität trifft eine Aussage darüber, inwieweit das gemessen wird, was gemessen werden soll. Die externe Validität besagt, inwiefern die Ergebnisse des Experiments auf die Realität übertragbar sind. Für eine genauere Erklärung der internen und der externen Validität, klicke hier.

Ablauf eines Experiments

Ein Experiment läuft generell nach dem Schema Entdeckung, Begründung und Verwertung ab (mehr dazu: Brosius und Koschel, 2001, S. 236). In diesem Zusammenhang wird lediglich der Versuchsplan angesprochen, in dem die Vorgehensweise genau festgelegt wird. Er beinhaltet beispielsweise, welche abhängigen Variablen gemessen werden und wie die Versuchsgruppen genau aussehen. Meist wird im sozialwissenschaftlichen Experiment eine Vorher-Nachher-Messung durchgeführt. Das bedeutet, dass die abhängige Variable vor und nach Verabreichung des Stimulus gemessen wird. Durch das vorherige Messen erhältst du eine Nullmessung und mit Hilfe der zweiten Messung kannst du dann die Veränderungen durch den Stimulus feststellen. Auf diese Weise werden Reifungseffekte und mögliche Störeinflüsse durch das zwischenzeitliche Geschehen kontrolliert.

5.3 Typen von Experimenten

Die wissenschaftlichen Experimente lassen sich in unterschiedliche Typen einteilen. Hier wird zwischen Labor- und Feldexperiment sowie Quasi- Experiment und Ex-post-facto-Anordnung unterschieden.

Laborexperiment

Beim Laborexperiment werden die Versuchspersonen in eine neue, künstlich geschaffene soziale Situation (das Labor) gebracht. Das bedeutet nicht, dass dein Experiment in einem Labor stattfinden muss. Es handelt sich lediglich um einen Raum, in dem alle Einflussfaktoren konstant gehalten werden können. Dadurch ist eine beliebige Wiederholung der Untersuchung möglich. Eine Manipulation des Stimulus ist bei dieser Methode einfacher als bei anderen Experimenten. Durch die Kontrolle der Laborsituation kannst du sicherstellen, dass die Wirkung nur auf den Stimulus (und keine anderen Störfaktoren) zurückzuführen ist. Dadurch erreichst du eine sehr hohe interne Validität. Allerdings ist mit Laborexperimenten der Nachteil verbunden, dass die Übertragbarkeit der Erkenntnisse auf die Realität eingeschränkt ist. Da die Situation stark kontrolliert und künstlich ist, lassen sich die Erkenntnisse schlecht auf die Alltagssituation übertragen. Die externe Validität ist also eher niedrig zu bewerten. Auch ist es in Laborexperimenten schwierig, komplexe soziale Situationen zu erzeugen, die unter realistischen Umständen ebenfalls zu finden sind, da alle wirkenden Faktoren bis auf den Stimulus ausgeschaltet werden und dies widerspricht fast allen realen sozialen Situationen. Für diese Art von Untersuchungen kommen also eher nur Individuen oder kleine Gruppen sowie eine begrenzte, überschaubare Anzahl von unabhängigen Variablen in Frage.

Feldexperiment

Bei Feldexperimenten hingegen verbleiben die Versuchspersonen in ihrer gewohnten Umgebung. Das bedeutet, dass die beiden Parallelgruppen in diese reale Umwelt integriert sein müssen, wobei eine der Gruppen einem Stimulus ausgesetzt ist/wird. Daher weisen Feldexperimente eine sehr hohe externe Validität auf, d.h. mit ihnen können praxisrelevante Resultate gewonnen werden. Allerdings ist es oft schwierig, geeignete natürliche Situationen für die Untersuchungen zu finden. Teilweise kann dann auch keine Kontrollgruppe konstruiert werden, wodurch eine Schlussfolgerung hinsichtlich des Ursache-Wirkungs-Zusammenhangs erheblich erschwert wird. Auch der Forscher kann den Stimulus nicht selbst variieren und die experimentelle Situation weder kontrollieren noch ihren Ablauf gezielt steuern. Eine Vorher- Nachher-Messung ist ebenfalls oft nicht möglich und es liegen zusätzlich unbekannte Störfaktoren vor. Dies spricht für eine eher niedrige interne Validität.

Quasi-experimentelles Design

Quasi-experimentelle Designs orientieren sich zwar an den Laborexperimenten, erfüllen jedoch nicht alle strengen Anforderungen. Bei dieser Methode werden die Parallelgruppen zwar bewusst festgelegt und dies geschieht in der Regel vor der Durchführung, jedoch können die Personen nicht zufällig auf die Gruppen verteilt werden. Es erfolgt also keine Randomisierung. Ohne Randomisierung fehlt dem Experimentator allerdings die gängige Möglichkeit, die Störvariablen der Versuchspersonen auszuschalten. Auf diese Weise ist es nicht sicher, ob in jeder Gruppe wirklich die gleichen Bedingungen herrschen. Quasi-experimentelle Untersuchungen werden vor allem dann durchgeführt, wenn festgestellt werden soll, welche Wirkung eine rechtliche, wirtschaftliche oder soziale Maßnahme hatte. In ihrem Fall ist größtenteils keine Zufallsaufteilung der Versuchspersonen möglich.

Ex-post-facto-Design

Mit einem Experiment im Ex-post-facto-Design untersuchst du nachträglich bereits abgeschlossene, natürliche soziale Prozesse, in denen ein Stimulus bereits gewirkt hat. Die Entwicklung dieser Prozesse verfolgst du bis an den Punkt zurück, an dem der Stimulus einsetzte. Du ziehst also eine aktuelle Situation heran und versuchst, die Ursachen des Sachverhalts im Nachhinein herauszufinden. Damit du eine angemessene Untersuchung dieser Art durchgeführt werden kannst, muss du genau wissen, wie die unabhängigen Variablen in den Gruppen verteilt sind. Diese müssen gleichmäßig auftreten, damit ein Vergleich möglich ist, d.h nachträglich musst du auch alle relevanten Variablen der Versuchspersonen bestimmen. Ein weiteres Problem ist, dass du durch die einmalige nachträgliche Messung nicht genau feststellen kannst, ob eine Zeitdifferenz von Ursache und Wirkung vorliegt. Dieses Problem kannst du allerdings durch einen nachträglichen Vortest lösen. Dazu stellst du den Versuchspersonen Fragen zu früheren Zeitpunkten, zu denen eine Wirkung des Stimulus als unwahrscheinlich anzunehmen ist. Doch solche Fragestellungen sind auf Grund von Erinnerungstrübungen und der Tendenz, Entscheidungen rationaler zu betrachten, als sie waren, problematisch.

Diese verschiedenen experimentellen Designs können natürlich kombiniert werden, um die jeweiligen Vorteile der Methoden auszunutzen.

6. Inhaltsanalyse

Im Folgenden erhältst du einen Überblick über die Methode Inhaltsanalyse, die sowohl zur Erhebung wie auch zur Auswertung genutzt werden kann. Die qualitative Inhaltsanalyse wird häufig auch als Dokumentenanalyse bezeichnet. Sie unterscheidet sich von der quantitativen Inhaltsanalyse dadurch, das die Kategorien nicht bzw. nur zum Teil vor der Analyse feststehen. Das bedeutet, dass die Dokumentenanalyse weniger standardisiert abläuft, als die quantitative Inhaltsanalyse.

6.1 Quantitative Inhaltsanalyse

Ziel

In quantitativen Methoden werden empirische Beobachtungen über wenige, ausgesuchte Merkmale systematisch mit Zahlenwerten belegt und auf einer zahlenmäßig breiten Basis gesammelt. Die Kriterien quantitativer Methoden sind Genauigkeit und Allgemeingültigkeit. Ihr wichtigstes Merkmal besteht darin, Daten zum Zweck des Informationsgewinns zu reduzieren. So auch bei der quantitativen Inhaltsanalyse; Beispielsweise wird nicht eine gesamte Tageszeitung erfasst und ausgewertet, sondern systematisch ausgewählte Artikel aus einzelnen Ausgaben.

Auf der Basis von abstrakten Daten, die man gewinnt, versucht man, objektivierbare Aussagen zu entwickeln, die auf größere Kontexte generalisierbar sind.

Standards für quantitative Forschung

Die Beispiele illustrieren das für die quantitative Inhaltsanalyse:

a) Die Messung zählbarer Eigenschaften. Beispiel: Die Anzahl der Bezüge auf einen Politiker in den Artikeln einer Ausgabe einer Tageszeitung.

b) Die Datenerhebung auf einer breiten Basis. Beispiel: Die Auswertung einer großen Anzahl von verschiedenen Ausgaben derselben Tageszeitung.

c) Beobachtung weniger, ausgewählter Merkmale. Beispiel: Eines dieser ausgewählten Merkmale kann die Bezugnahme auf einen Politiker in den Artikeln der Tageszeitung sein.

d) MaximaleStandardisierung der Erhebungssituation. Beispiel: Das Vorgehen mit dem Lesen und den Auswertungen der Ausgaben der Tageszeitung erfolgt regelgeleitet. Wenn sich mehrere Forscher an dem Projekt beteiligen, gehen sie alle nach denselben Regeln vor. Jeder Forscher sollte die gleiche Anzahl an Bezügen auf den Politiker zu finden, wenn alle denselben Artikel in der gleichen Ausgabe der Tageszeitung untersuchen.

e) Reduktion komplexer Zusammenhänge auf wenige Aussagen. Beispiel: Die Artikel behandeln unterschiedliche Themen und Ereignisse. Sie sind verschiedenen Stilrichtungen zuzuordnen. Für diese Untersuchung ist jedoch nur interessant, wie oft sie Bezug auf den Politiker nehmen.

f) Forscher sind unabhängige, objektive Beobachter. Die Forscher notieren die korrekte Anzahl der Bezüge auf den Politiker, auch wenn sie dessen politisches Programm ablehnen und über die hohe Publizität, die er über die Bezüge in den Artikeln erhält, persönlich nicht erfreut sind. Sie gehen unvoreingenommen an den Untersuchungsgegenstand heran.

Die Inhaltsanalyse ist eine Methode zur systematischen und nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen. Ihre Aufgabe besteht darin, aus den Merkmalen einer Analyseeinheit (i. d. R. Texte, Bild- und Tonaufzeichnung) auf die Merkmale eines Kontextes (soziale Wirklichkeit) zu schließen.

grafik

Vor- und Nachteile der quantitativen Inhaltsanalyse

Probleme tauchen meist dann auf, weil die Beobachtung weniger, ausgewählter Merkmale (wie zum Beispiel die Anzahl der Bezüge auf einen Politiker in Zeitungsartikeln) eine ausgewählte und damit nicht repräsentative Abbildung der Wirklichkeit darstellt. Es kann vorkommen, dass bestimmte Punkte in der Auswertung ausgeschlossen werden, die für die Interpretation der Ergebnisse unbedingt notwendig sind.

So kann man zum Beispiel die Popularität eines Politikers nicht an der Anzahl der Nennungen des Politikers ablesen. Beispielsweise kann der Politiker in einen Skandal verwickelt sein, der eine große Anzahl an Nennungen in den Medien mit sich bringt, dadurch aber an Popularität verlieren.

Bei der Auswertung von Text, Film oder Ton kannst du – im Gegensatz zu anderen Auswertungsmethoden – Schlussfolgerung zur Vergangenheit zu ziehen. Außerdem ist es dir so möglich, Aussagen über Kommunikatoren und ihre Adressaten zu treffen, die nicht oder nicht mehr erreichbar sind. Voraussetzung dafür sind Aufzeichnungen.

Das Datenmaterial ist relativ leicht verfügbar. Medien können vervielfältigt und an die Mitglieder der Forschergruppe verteilt werden. Besonders einfach ist das möglich, wenn das Material bereits in digitaler Form vorliegt. Höher ist der Aufwand bei Material, das noch nicht vorliegt. Gruppendiskussionen und Beobachtungen zum Beispiel musst du in einem vorherigen Schritt verschriftlicht (in symbolische Wirklichkeit umgewandeln), bevor sie dir für die Inhaltsanalyse zur Verfügung stehen.

Die Inhaltsanalyse ist (fast) beliebig reproduzierbar und modifizierbar. Weil sie regelgeleitet erfolgt, können andere Forscher die Schritte der Auswertung nachvollziehen.

Die Erhebungsmethode ist relativ kostengünstig. Wenn das Datenmaterial (Tageszeitungen, Film- oder Tondokumente) bereits vorliegt, fallen lediglich Beschaffungskosten für das Material und Personalkosten für die Forscher an.

Untersuchungsablauf

Bei der Durchführung einer quantitativen Inhaltsanalyse bietet es sich an, sich an dem folgenden standardisierten Untersuchungsablauf zu orientieren (nach Früh, 2007, S. 135-196):

Planungsphase Problemstellung / Fragestellung
Projektplanung / Hypothesenbildung
Entwicklungsphase Kategorienbildung
Codebuchentwicklung
Testphase Probecodierung
Codiererschulung
Anwendungsphase Codierung
Auswertungsphase Aufbereitung der Daten
Auswertung


6.1.1 Planungsphase

Problemstellung/ Fragestellung

Am Beginn des Untersuchungsablaufs steht immer die Frage: „Was will ich, der Forscher, wissen?“ Erst, wenn du dir diese Frage beantwortet hast, kannst du deine eigentliche Problemstellung und die eigentliche Forschungsfrage formulieren. Die Problemstellung und die Fragestellung müssen beide bereits in der Planungsphase klar strukturiert und ausformuliert sein.

Die Forschungsfrage bestimmt deinen Untersuchungsgegenstand. Ihre Formulierung beeinflusst gleichzeitig auch dein Vorgehen im Forschungsprozess und die theoretischen und empirischen Bestandteile des Untersuchungsablaufs. Sie ist hinsichtlich ihrer Relevanz zu begründen. Bei unserem Beispiel lautet eine mögliche Forschungsfrage: “Wie unterscheidet sich die Anzahl der Bezugnahmen auf den Politiker in den Ausgaben mehrerer verschiedener Tageszeitungen über den Zeitraum X hinweg? Bestätigt sich die Hypothese, dass Tageszeitung Y häufiger auf den Politiker Bezug nimmt als Tageszeitung Z?” Zu unterscheiden sind zwei Typen von Forschungsfragen:

  • Konkrete bzw. vordefinierte Forschungsfragen dienen der Diagnose und exakten Beschreibung eines Sachverhalts. Bei der im oberen Abschnitt formulierten Frage handelt es sich um eine konkrete Forschungsfrage.
  • Offene Forschungsfragen dagegen dienen der Exploration eines Gegenstandsbereichs. Sie sind allgemeiner und weniger konkret formuliert. Ein Beispiel: “Welche sprachlichen und stilistischen Mittel verwendet Tageszeitung Y bei der Darstellung des Politikers in ihren Ausgaben über den Zeitraum X hinweg?”

Projektplanung / Hypothesenbildung

Grundlegende Fragen und Problemfelder der Projektplanung sind:

a) Was ist projektbezogen wünschenswert?

b) Was ist möglich und machbar (Auswertung welcher Anzahl von Ausgaben einer Tageszeitung)?

c) Wie komme ich zu vergleichbaren Untersuchungseinheiten (bspw. regionale oder überregionale Ausgaben verschiedener Tageszeitungen: Auflagengröße, Verbreitungsgebiet etc.)?

d) Wie viel Geld, Zeit und Personal steht mir zur Verfügung?

e) Welche Gegenstände (bspw. Tageszeitungen) sind sinnvoller Weise und arbeitstechnisch machbar zu untersuchen? Hypothesen sind intersubjektiv prüfbare Feststellungen, welche die Forschungsfrage in einzelne Behauptungen übersetzen. Man unterscheidet zwischen offenen und geschlossenen Hypothesen.

Hypothesen sind intersubjektiv prüfbare Feststellungen, welche die Forschungsfrage in einzelne Behauptungen übersetzen. Man unterscheidet zwischen offenen und geschlossenen Hypothesen.

 

Offene Hypothesen Geschlossene Hypothesen
Problemstellungen in Frageform Problemstellungen als Behauptungen
“Nehmen die Tageszeitungen Y und Z in ihren Artikeln im gleichen Maß Bezug auf den Politiker?” “Tageszeitung Y bezieht sich in ihren Artikeln häufiger auf den Politiker als Tageszeitung Z.”

Es ist außerdem möglich, eine Hypothese mit einer oder mehreren Variablen zu verknüpfen. Sie wird durch die Verknüpfungsvorschrift zur “wenn/dann- Hypothese” oder zur “je/desto-Hypothese”.

wenn/dann-Hypothese je/desto-Hypothese
“Wenn der Politiker über die Fehler in seinem Ministerium spricht, dann nimmt Tageszeitung Y stärker auf ihn Bezug als Tageszeitung Z.” “Je häufiger der Politiker über die Verfehlungen seiner Vorgänger im Ministerium spricht, desto seltener wird auf ihn in Tageszeitung Y Bezug genommen.”

Die Vorüberlegungen zur Hypothesenbildung behandeln:

Theoretische Vorüberlegungen und Zusatzannahmen aus der Fragestellung. Die Theoriestudie ergibt das, was ich wissen und herausfinden will.

Die Vorüberlegungen auf Basis der Theorie solltest du in einem zweiten Schritt überprüfen. Dazu kannst du eine Stichprobe aus dem Untersuchungsmaterial ziehen (z.B. mehrere Artikel aus einer Tageszeitung spontan auswählen). Aspekte, die dir bei dem Lesen der ausgewählten Artikel auffallen, kannst noch zu deinenHypothesen aufnehmen.

6.1.2 Entwicklungsphase

Kategorienbildung

In der Entwicklungsphase gilt es, einen Katalog an relevanten Merkmalen oder Charakteristika (Kategorien) systematisch zu erstellen.

Dieses sogenannte Kategoriensystem stellt deine „operationalisierte Forschungsfrage“ dar. Kategorien werden als die Einheiten bzw. Merkmale des zu untersuchenden Materials verstanden, welche die problemrelevanten Dimensionen der Forschungsfrage widerspiegeln. Kategorien repräsentieren eine genaue Vorgabe dessen, was erfasst bzw. gemessen werden soll. Unter dem Begriff Kategorie können sich Klassen und einzelne Ausprägungen von Merkmalen zu bestimmten Fragestellungen subsumieren.

Für das Beispiel des Politikers in Artikeln von Tageszeitungen ergeben sich folgende möglichen Dimensionen eines Kategorienschemas für die politische Berichterstattung von Tageszeitungen:

formale Dimension forschungsfragenzentrierte Dimension
Codierer (Name des Forschers) Akteure (z.B. Politiker)
Untersuchungseinheit (z.B. Zeitungsausgabe) Gruppenzugehörigkeit, Funktion
Datum Parteien(-zugehörigkeit)
Seite (bei Printmedien) Themen
Laufende Nummer der Analyseeinheit Wertungen
Ressort
Umfang
Aufmacher (ist Aufmacher oder ist nicht Aufmacher)
Stil (Nachricht, Meinung, etc.)


Kategoriensystem

Auf Basis der genannten Beschreibungen verbinden sich mit einem Kategoriensystem die folgenden Funktion und Vorgehensweisen:

a) Es gliedert den komplexen Forschungsgegenstand in inhaltlich abgrenzbare Teilaspekte.

b) Die Kommunikationsinhalte der Analyseeinheiten werden gemäß der Abgrenzung durch die Forschungsfrage zunächst in Dimensionen (Hauptkategorien) aufgelöst und - je nach Fragestellung - in Unterkategorien ausdifferenziert.

Die für den Untersuchungsablauf verwendbaren Kategorien weisen folgende Eigenschaften auf:

  • valide und reliabel: Die Kategorien sind aus der Theorie abgeleitet und auf die Fragestellung bezogen.
  • trennscharf: Die Kategorien sind eindeutig und klar voneinander abgrenzbar.
  • vollständig: Die Kategorien erfassen alle Dimensionen und bilden zusammen ein vollständiges, die Untersuchungseinheit anhand der Fragestellung adäquat beschreibendes Kategoriensystem.
  • verständlich: Die Kategorien sind verständlich formuliert. Dies ist insbesondere deshalb wichtig, weil die Bedeutung von einzelnen Kategorien in einem Projekt allen Forschern klar sein muss, um verlässliche Ergebnisse zu erhalten. Über die Projektlaufzeit hinaus sind verständliche Kategorien zudem auch von dritten Personen jederzeit wieder nachvollziehbar.

Codebuchentwicklung

1. Das Codebuch ist Leitfaden, Nachschlagewerk und Koordinationsinstrument für die Codierung.

  • Du klärst die Begriffe und „Situationen“. Du gibst allgemeine Hinweise zu erfassenden Merkmalen (z.B. Anzahl der Bezugnahmen auf die Akteure).
  • Du beschreibst alle Erhebungsschritte. Ihre Reihenfolge, ihr Umfang und ihre Ausführung erläuterst du detailliert. Dies nennt man die “Codieranweisungen”.
  • Du listet alle Haupt- und Unterkategorien des Kategoriensystems auf.
  • Du beschreibst alle Kategorien und definierst sie präzise. Wenn dies der Fall ist, spricht man auch von operationalen Kategoriendefinitionen.
  • Du gibst alle zu codierenden Variablen mit den jeweiligen Codes der Ausprägungen wieder.
  • Das Buch enthält den Codierbogen, in dem die Forscher ihre Ergebnisse zu den einzelnen Untersuchungseinheiten notieren.

2. Das Codebuch dokumentiert den Untersuchungsverlauf und dient als dein Nachweis der methodischen Konzeption der Untersuchung für die gesamte Forschergruppe.

3. Das Codebuch dient als Kontrollinstrument zu einer aktuell laufenden oder für eine nachträgliche Überprüfung der Datenerfassung.

Das Konzept eines Codebuchs und eines Codierbogen versteht man am besten, wenn man einmal eines in der Hand hatte. Wir empfehlen dir deshalb, das Codebuch oder einen Codierbogen aus einer bereits durchgeführten Untersuchung anzuschauen. Ein sehr ausführliches Codebuch als Beispiel findest du hier.

6.1.3 Testphase

Probecodierung

Nach Abschluss der Entwicklungsphase solltest du sinnvollerweise, wenn du dein Codebuch erstellt hast, die Planung für das Projekt überprüfen und gegebenenfalls überarbeiten. Gleiches gilt für dein Kategorienschema, falls hier Aspekte korrigiert, ausgebaut oder ergänzt werden müssen.

Überarbeitungsbedürftige Aspekte des Projekts und des Codebuchs findest du durch Probecodierungen, so genannte “Pretests” heraus, da viele Fehler erst in der konkreten Anwendung sichtbar werden.

Reliabilität und Validität

Zentral im Rahmen der Probecodierung sind die Prüfung von Reliabilität und Validität.

  • Prüfung der Reliabilität: Reliabilität bestimmt die Zuverlässigkeit der Messung bzw. des Messinstruments, der Codierer oder des Codebuchs. Die Überprüfung der Reliabilität erfolgt durch eine Wiederholung der Messungen zu verschiedenen Zeitpunkten mit einem Forscher (Intracoderreliabilität). Bei der Wiederholung sollte das gleiche Ergebnis erzielt werden. Relevant ist außerdem, ob mehrere Forscher die gleichen Ergebnisse liefern (Intercoderreliabilität).
  • Validität: Validität bestimmt die Gültigkeit der Messung. Wurde das gemessen, was gemessen werden sollte? Deine Überprüfung des Forschungsdesigns muss ergeben, dass die Forschungsfrage exakte Ergebnisse über den Problembereich liefert. Wenn du nach der Popularität eines Politikers fragst, ist es beispielsweise nicht sinnvoll, die Anzahl der Bezüge auf seine Person in Tageszeitungen zu erfassen. Die Anzahl der Bezugnahmen liefert dagegen valide Messungen über den Grad der Publizität dieses Politikers in dem untersuchten Medium.

Intercoderreliabilität

Wenn du zusammen mit weiteren Codierern arbeitest, solltest du eure Ergebnissen nach den Pretests vergleichen und deine Codierer so lange weiter schulen, bis sie die Anweisungen beherrschen und bis sie reliable Ergebnisse liefern. Das Instrument für diesen Vergleich nennt sich “Intercoderreliabilitätstest”. Die Intercoderreliabilität wird folgendermaßen berechnet:

grafik

Ist das Ergebnis ein Wert über 0.7, so ist es meist eine akzeptable Intercoderreliabilität.

Intracoderreliabilität

Wenn nur ein Codierer am Werk ist, kann man durch den Intracoderreliabiliätstest überprüfen, ob der Codierer über die Zeit hinweg reliabel codiert hat. Dazu codiert der Codierer einen Artikel ganz zu Beginn der Inhaltsanalyse, den er nach Abschluss der Inhaltsanalyse erneut codiert. Die Formel für die Berechnung der Intracoderreliabilität ist demnach eine Abwandlung des Intercoderreliabilitätstests:

grafik

6.1.4 Anwendungsphase

Codierung

In der Anwendungsphase setzt du die überprüften Vorgehensweisen mit den Anweisungen des mehrfach überarbeiteten Codebuchs um und wendest sie auf die Untersuchungseinheiten an. Die Ergebnisse notierst du in den ausgedruckten Codierbogen oder überträgst sie direkt in eine digitale Datei.

6.1.5 Auswertungsphase

Aufbereitung der Daten

Gegebenenfalls gibst du in diesem Schritt die Infos der Codierbögen in eine Erfassungsmaske auf dem Computer ein. Dabei solltest du die Daten auf offensichtliche Eingabefehler überprüfen. Sollte sich herausstellen, dass trotz der Probecodierung einzelne Variablen oder Kategorien unzufriedenstellende oder fehlerhafte Ergebnisse liefern, so werden diese anhand eines überarbeiteten Codebuchs erneut recodiert. Diese Schritte musst du dokumentieren und später offenlegen.

Anschließend folgt die Aufbereitung der Daten für die Auswertung, beispielsweise mit dem Zusammenfassen einzelner Politiker zu ihren jeweiligen politischen Gruppierungen.

Auswertung

Die Hypothesen überprüfst du in der Auswertung anhand relevanter Indikatoren (z.B. Anzahl von Bezugnahmen), die du aus den Daten gewinnst/ entnimmst. Häufigkeiten, Ausprägungen und Zusammenhänge werden dabei interpretiert. Am Ende der Untersuchung steht somit eine wissenschaftliche Arbeit mit der Beschreibung des gesamten Forschungsunterfangens und der wesentlichen Ergebnisse.

6.2 Qualitative Inhaltsanalyse

Die qualitative Inhaltsanalyse ist ein Verfahren, bei dem relevante Informationen aus dem Text entnommen und getrennt von ihm weiter verarbeitet werden. Das Material wird dazu in Einheiten zerlegt, die anschließend nacheinander bearbeitet werden. Hierzu entwickelt man ein Kategoriensystem, das jene Aspekte festlegt, die aus dem Material herausgefiltert werden sollen. Dabei handelt es sich um eine eher theoriegeleitete Textanalyse.

Vorgehen bei der qualitativen Inhaltsanalyse

Nach der (1) Auswahl des auszuwertenden Materials wird die (2) Erhebungssituation analysiert (wie das Material zustande kam, wer beteiligt war etc.). Dann wird das Material formal charakterisiert (handelt es sich um ein Protokoll oder eine Aufzeichnung, wie wurde das Material aufbereitet etc.) und festgelegt, unter welchem Aspekten man eigentlich das Material auswerten möchte. Die Fragestellung der Analyse soll also genau geklärt werden. Schließlich müssen noch die (3) Analyseeinheiten bestimmt werden. In einer Codiereinheit wird der kleinste Materialbestandteil festgelegt, was der kleinste Textteil ist, der einer Kategorie zugeordnet werden kann. Die Auswertungseinheit hingegen bestimmt, welche Textteile nacheinander ausgewertet werden. Nun wählst du dem jeweiligen Forschungsgegenstand angemessen eine der Varianten der Inhaltsanalyse aus:

Zusammenfassende Inhaltsanalyse

Um sehr ausführliche Antworten auf die wichtigsten Informationen zu reduzieren, verwende die zusammenfassende Inhaltsanalyse. Deine Zielstellung dabei ist, das Material so zu reduzieren, dass die wesentlichen Inhalte erhalten bleiben und die Ergebnisse ein Abbild des Ausgangsmaterials sind. Diese Art der Analyse bietet sich immer dann an, wenn du nur an der inhaltlichen Ebene des Materials interessiert bist und es zu einem überschaubaren Kurztext komprimieren möchtest.

Ablauf: Dafür arbeitest du das vorhandene Material Zeile für Zeile durch und bildest möglichst materialnah an geeigneten Stellen Kategorien (Paraphrase). Im nächsten Schritt reduzierst du weniger relevante und bedeutungsgleiche Paraphrasen und fasst in einem zweiten Schritt ähnliche Paraphrasen zusammen. Fällt dir während des Prozesses auf, dass sich die gebildeten Kategorien überschneiden, musst du das Kategoriensystem überarbeiten. Wurde das relevante Material den einzelnen Kategorien zugeordnet, kannst du mit der Interpretation beginnen. Die Kategorien können auch quantitativ ausgewertet werden, indem du beispielsweise prüfst, welche Kategorien am häufigsten codiert wurden.

Explikative Inhaltsanalyse

Das Ziel der explikativen Inhaltsanalyse ist das genaue Gegenteil. Es geht darum, zu einzelnen fraglichen Textstellen zusätzliches Material zu finden, welches die Stellen erläutert oder deutet.

Ablauf: Dafür musst du zu Beginn festlegen, an welchen Stellen zusätzliches Material erforderlich ist und zulässiges Ergänzungsmaterial genau bestimmen. Dafür ziehe entweder das direkte Textumfeld (Kontext) der relevanten Stelle oder auch über den Text hinausgehende Informationen (über den Textverfasser, das kulturelle Umfeld etc.) heran. Aus dem Kontextmaterial formulierst du eine erklärende Paraphrase, die anstatt der fraglichen Stelle in den Originaltext eingesetzt wird. Anschließend prüfst du, ob die Explikation (Ergänzung) ausreicht. Falls nicht, musst du neues Kontextmaterial bestimmen und den Prozess erneut starten. Auf Grund dieser Vorgehensweise kann man die Explikation im eigentlichen Sinn auch als Kontextanalyse bezeichnen.

Strukturierende Inhaltsanalyse

Bei der strukturierenden Inhaltsanalyse filterst du bestimmte Aspekte (z.B. inhaltliche oder formale Aspekte, bestimmte Typen) nach vorher festgelegten Kriterien aus dem Material heraus oder ordnest das Material bestimmten Dimensionen zu. Auch hier musst du ein Kategoriensystem bilden, dem das Textmaterial jederzeit eindeutig zugeordnet werden kann.

Ablauf: Dafür definierst du zunächst die Kategorien und legst explizit fest, welche Textbestandteile unter eine Kategorie fallen. Danach wählst du konkrete Textstellen als prototypische Ankerbeispiele für jede Kategorie aus und stellst Regeln (Codierregeln) für eine eindeutige Zuordnung zu Kategorien auf, wo es Probleme bei der Abgrenzung gibt. Alle vorgenommenen Bestimmungen sammelst du nun im Codierleitfaden, der als Anweisung für den oder die Auswerter dient. Während des gesamten Vorgangs ergänze bei Bedarf weitere Ankerbeispiele in den Leitfaden oder formuliere bei strittigen Codierungen neue.

In einem ersten Materialdurchgange erprobe den Codierleitfaden und die einzelnen Kategorien und überarbeite sie gegebenenfalls neu. Dafür kennzeichne zuerst die Textstellen, die einer bestimmten Kategorie zugeordnet werden sollen, durch verschiedenfarbige Unterstreichungen oder durch Notieren der Kategoriennummern am Rande der Textstelle. Das auf diese Weise gekennzeichnete Material filterst du anschließend heraus und fasst es zusammen, bevor dann deine Ergebnisaufbereitung erfolgen kann.

7. Grounded Theory

Die Grounded Theory ist eine qualitative Erhebungs- und Auswertungsmethode.

Bei der Grounded Theory (gegenstandsbezogenen Theorie) ist bereits während der Erhebung eine Konzept- und Theoriebildung zugelassen. Du darfst und sollst dir bereits während der Datensammlung Gedanken über die Auswertung machen und theoretische Konzepte, Konstrukte sowie Hypothesen überlegen, welche dann auch bei der weiteren Erhebung berücksichtigt werden. Bei diesem Vorgehen sind daher Erhebung und Auswertung ineinander verschränkt. Wie in allen qualitativen Verfahren werden auch hier während der Datenerhebung bei Bedarf Modifizierungen vorgenommen, die entwickelten Annahmen und Konzepte verfeinert und verknüpft. Sobald der innerhalb der Erhebung vervollständigte theoretische Bezugsrahmen klar und aussagekräftig ist, kann die weitere Erhebung abgebrochen werden, da die wesentliche Auswertungsarbeit bereits vollzogen ist.

Um Datenmaterial (Text im weiteren Sinne, wie transkribierte Interviews, Beobachtungsprotokolle etc.) zu gewinnen, wählst du zu Beginn verschiedene Personen, Situationen und Dokumente aus, die möglichst das gesamte Spektrum der Fragestellung abdecken. Besonders wichtig ist das Codieren, wobei ein Code für ein benanntes Konzept oder Phänomen steht.

Offenes, axiales und selektives Codieren

Du kannst zum Codieren die Varianten des offenen, axialen sowie selektiven Codierens nutzen, die im Forschungsprozess ineinander übergehen.

Ziel des offenen Codieren ist es, alle für die Forschungsfrage interessanten Phänomene im Datenmaterial mit einem Code zu versehen. Ist das Datenmaterial in Konzepte gefasst, so können diese in Kategorien, die mehrere ähnliche Konzepte zusammenfassen, eingeordnet werden. Den Kategorien können verschiedene Eigenschaften zugeschrieben werden (Siehe Tabelle).

Kategorie Eigenschaften Dimensionale Ausprägung
Zielsetzung Zielklarheit
Bandbreite
Beteiligungsweise
Zielhorizont
vage-----------------deutlich
eng------------------weit
offen----------------geschlossen
langfristig------------kurzfristig

Beispielsweise beinhaltet die Kategorie „Gegenstand des Projektes“ die Konzepte „Ideenfindung“ und „Zielsetzung“. Das Konzept „Zielsetzung“ kann dabei wieder verschiedene Eigenschaften haben, deren Merkmale sich unterschiedlich ausprägen können. Diese Eigenschaften werden schließlich dimensionalisiert d.h. auf einem Kontinuum möglicher Ausprägungen der Eigenschaft angeordnet. Die Eigenschaft „Zielklarheit“ kann so beispielsweise von „vage“ bis „deutlich“ reichen.

Beim axialen Codieren setzt du die Kategorien (mit ihren Eigenschaften und dimensionalen Ausprägungen) zueinander in Beziehung. Dabei ordnest du die Daten anhand folgender Kriterien (Handlungsparadigma) neu an: Im Mittelpunkt steht ein bestimmter Gegenstand, ein Phänomen (Achsenkategorie). Nun fragst du nach den Ursachen, dem Kontext bzw. intervenierenden Bedingungen, den Handlungsstrategien sowie nach den Konsequenzen des Phänomens.

In der Phase des selektiven Codierens legst du das zentrale Phänomen, die Kernkategorie, fest, die sich in den ersten beiden Codierungsschritten herausgebildet hat. Die zentralen Aussagen der Untersuchung fasst du zusammeng und bildest daraus die zentrale Geschichte, welche sich wiederum um die Kernkategorie dreht. Nach der Bestimmung der Kernkategorie setzt du andere relevante Kategorien systematisch zu ihr in Beziehung.

Merkzettel

Beim gesamten Vorgehen der Grounded Theory nehmen Merkzettel bzw. Memos einen zentralen Stellenwert ein, die zum Einsatz kommen, sobald sich wichtige Aspekte ergeben. Das Schreiben von Memos fördert die eigene Distanzierung von den Daten und hilft dir, nicht nur eine „beschreibende“ Arbeit anzufertigen. Darüber hinaus können mit ihrer Hilfe Auswertungskategorien gebildet werden. Bei den Memos achte darauf, dass auch die Kontextbedingungen der zugrunde liegenden Beobachtungen festgehalten werden. Sie können dir hinsichtlich vorzunehmender Verallgemeinerungen und Verknüpfungen als wichtige Entscheidungshilfe dienen. Die angelegten Merkzettel vervollständigtst du im weiteren Verlauf der Datensammlung durch weitere Beobachtungen und Analysen. Anschließend verknüpfst du die entwickelten Konzepte mit den Auswertungskategorien (Codes), was sich wiederum auf die weitere Datensammlung auswirken kann. Diese sich wiederholenden Prozesse führen schließlich zu deinen endgültigen theoretischen Konzepten und/bzw. zur gegenstandsbezogenen Theorie.

Dieses Verfahren ermöglicht das Formulieren einer aus vernetzten Konzepten bestehenden geltenden Theorie. Dabei ist das Arbeiten in einer Forschergruppe hilfreich, da so eine Beschleunigung des Forschungsprozesses erreicht und Einseitigkeit vermieden werden kann.

Anwendungsgebiet

Das klassische Anwendungsgebiet der Grounded Theory ist die teilnehmende Beobachtung, da hier der Forscher selbst involviert ist und die weitere Datenerhebung in Abhängigkeit von den Memo-Ergebnissen steuern kann. Zudem eignet sich das Verfahren vor allem bei noch unerforschten Gebieten und explorativen Untersuchungen, da mit ihr neue theoretische Konzepte entwickelt werden können.

8. Statistische Auswertungsverfahren

Neben der quantitativen Inhaltsanalyse gibt es diverse andere Auswertungsverfahren, die du in der Regel mit Statistik-Programmen, wie SPSS bzw. PASW (kostenpflichtig; auf einigen Computern im CIP-Pool installiert, Mondrian (kostenfreie, an der Uni Augsburg entwickelte Open-Source Software), oder auch Excel durchführen kannst.

Diese Verfahren lernst du i.d.R. im Rahmen von Seminaren kennen, deswegen gehen wir hier nicht genauer darauf ein.

Häufigkeitstabelle

Hier wird ein erster Überblick über das Anwortverhalten gegeben. Die Ausgabe kann in absoluten Zahlen sowie in Prozentwerten erfolgen. Z.B. bekommt man hier angezeigt, wie viele der Befragten männlich und wieviele der Befragten weiblich sind.

Kreuztabellen

In Kreuztabellen kann die Häufigkeitsverteilung für zwei Variablen getrennt betrachtet werden. Z.B. kann man sich die Antworten für Frauen und Männer ausgeben lassen und nachsehen, ob es hier einen Unterschied im Antwortverhalten gibt.

Mit Statistik-Programmen können außerdem Zusammenhänge zwischen zwei oder mehreren Variablen berechnet werden. Wir empfehlen hier ausdrücklich den Besuch eines Seminars zu SPSS oder Statistik.

9. Weiterführende und zitierte Literatur

Atteslander, P. (2006). Methoden der empirischen Sozialforschung (11., neu bearb. u. erw. Aufl.). Berlin: Schmidt.
Signatur in der UB Augsburg:52/MR 2000 A884(11).

Bortz, J. & Döring, N. (2005). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler (3., überarb. Aufl.). Heidelberg: Spinger Medizin.
Signatur in der UB Augsburg: 17/MR 2000 B739(4), 52/MR 2000 B739(4)

Brosius, H. B., Koschel, F. & Haas, A. (2007). Methoden der empirischen Kommunikationsforschung (4., überarbeitet und erweiterte Aufl.). Wiesbaden: VS Verlag für Sozialwissenschaften.
Signatur in der UB Augsburg: 12/AP 12350 B874(4)

Burzan, N. (2005). Quantitative Methoden der Sozialforschung. Eine Einführung für die Kulturwissenschaften. Hagen: Junior-Professur für Sozialstrukturanalyse und empirische Methoden. FernUniversität Hagen.
Signatur in der UB Augsburg: 72/DU 1000 B975+1

Diekmann, A. (2008). Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen (vollst. überarb. u. erw. Ausgabe). Reinbek bei Hamburg: Rowohlt.
Signatur in der UB Augsburg: 17/MR 2000 D559 E5(19), 52/MR 2000 D559 E5(19)

Flick, U. (2007). Qualitative Sozialforschung. Eine Einführung (vollst. überarb. u. erw. Aufl.). Reinbek bei Hamburg: Rowohlt.
Signatur in der UB Augsburg: 17/MR 2000 F621 Q2.2007, 52/MR 2000 F621 Q2.2007

Früh, W. (2007). Inhaltsanalyse. Theorie und Praxis (6. Aufl.). Konstanz: UVK.
Signatur in der UB Augsburg: 17/MS 7950 F944 I5(6), 52/MS 7950 F944 I5(6)

Gläser, J. & Laudel, G. (2006). Experteninterviews und qualitative Inhaltsanalyse (2., durchges. Aufl.). Wiesbaden: VS Verlag für Sozialwissenschaften.
Signatur in der UB Augsburg: 17/MR 2600 G543(3)

Kromrey, H. (2006). Empirische Sozialforschung. Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung (11., überarbeitete Aufl.). Stuttgart: Lucius & Lucius.
Signatur in der UB Augsburg: 17/MR 2000 K93 O4(11)

Lamnek, S. (2005). Gruppendiskussion. Theorie und Praxis (2. überarb. und erw. Aufl.). Weinheim: Beltz.
Signatur in der UB Augsburg: 52/MR 2400 L232

Mayer, H. (2008). Interview und schriftliche Befragung. Entwicklung, Durchführung und Auswertung (4., überarb. u. erw. Aufl.). München: Oldenbourg.
Signatur in der UB Augsburg: 12/AP 27040 M468(4), 52/MR 2400 M468(4)

Mayring, P. (2002). Einführung in die qualitative Sozialforschung. Eine Anleitung zu qualitativem Denken (5. Aufl.). Weinheim: Beltz.
Signatur in der UB Augsburg: 17/MR 2000 M474(5), 52/MR 2000 M474(5), 72/DU 1000 M474(5)

Raithel, J. (2006). Quantitative Forschung. Ein Praxiskurs (1. Aufl.). Wiesbaden: VS Verlag für Sozialwissenschaften.
Signatur in der UB Augsburg: 72/DF 2500 R161(2)

Steger, Th. (2003). Einführung in die qualitative Sozialforschung. Schriften zur Organisationswissenschaft 1. URL: http://www.tu-chemnitz.de/wirtschaft/bwl5/forschung/schriften/doc/lehr_EinfqualSozialforschung.pdf (21.09.2009).

Stelzl, I. (1999). Experiment. In E. Roth & H. Holling (Hg.), Sozialwissenschaftliche Methoden (5., durchges. Aufl.) (S. 108-125). München: Oldenbourg.
Signatur in der UB Augsburg: 52/MR 1100 R845(5)