Anmerkungen zum Chi-Quadrat-Test

Dieser Artikel enthält eine Studie zum Chi-Quadrat-Test.

Der Test X 2 (griechischer Buchstabe X 2 ausgesprochen als Ki-Quadrat) ist eine Methode zur Beurteilung, ob empirisch beobachtete Frequenzen signifikant von denjenigen abweichen, die unter bestimmten theoretischen Annahmen zu erwarten wären. Angenommen, politische Präferenz und Wohnort oder Geburt wurden kreuzklassifiziert und die Daten in der folgenden 2 × 3-Kontingenztabelle zusammengefasst.

In der Tabelle ist zu sehen, dass die Anteile der Stadtbewohner 38/48 = 0, 79, 20/46 = 0, 34 und 12/18 = 0, 67 (auf zwei Dezimalstellen gerundet) für die drei politischen Parteien des Landes sind. Wir möchten dann wissen, ob diese Unterschiede statistisch signifikant sind oder nicht.

Zu diesem Zweck können wir eine Nullhypothese vorschlagen, die davon ausgeht, dass zwischen den drei politischen Parteien keine Unterschiede hinsichtlich der Geburt bestehen. Dies bedeutet, dass erwartet wird, dass die Anteile der Stadt- und Landbevölkerung für jede der drei politischen Parteien gleich sind.

Auf der Grundlage der Annahme, dass die Nullhypothese korrekt ist, können wir einen Satz von Häufigkeiten berechnen, die angesichts dieser Grenzsummen zu erwarten wären. Mit anderen Worten, wir können die Anzahl der Personen berechnen, die eine Präferenz für die Kongresspartei zeigen, die wir aufgrund der obigen Annahme als Stadtbewohner erwarten würden, und diese Zahl mit der tatsächlich beobachteten vergleichen.

Wenn die Nullhypothese wahr ist, können wir ein gemeinsames Verhältnis berechnen als:

38 + 20 + 12/48 + 46 + 18 = 70/112 = 0, 625

Bei diesem geschätzten Anteil würden wir 48 x (0, 625) = 30 dem Kongress angeschlossene Personen, 46 x (0, 625) = 28, 75 Personen, die der Janata-Partei angehören, und 18 x (0, 625) = 11, 25 Personen aus den 70 Mitgliedern des Lok Dal erwarten Stadtbewohner. Abzüglich dieser Zahlen von den jeweils beobachteten Zahlen von den jeweiligen Größen der drei Stichproben ergeben sich 48 - 30 = 18, die dem Kongress angeschlossen sind, 46 - 28, 75 = 17, 25 -, die mit Janata verbunden sind, und 18 - 11, 25 = 6, 25 Personen, die mit Lok Dal verbunden sind, von 42 Personen aus den ländlichen Gebieten.

Diese Ergebnisse sind in der folgenden Tabelle dargestellt, wobei die erwarteten Frequenzen angegeben sind. in Klammern dargestellt.

Um die Haltbarkeit der Nullhypothese zu testen, vergleichen wir die erwarteten und beobachteten Häufigkeiten. Der Vergleich basiert auf der folgenden X2-Statistik.

X 2 = Σ (O-E) 2 / E

Dabei steht O für beobachtete Frequenzen und E für die erwarteten Frequenzen.

Freiheitsgrade :

Die Anzahl der Freiheitsgrade bezieht sich auf die Anzahl unabhängiger Einschränkungen, die uns in einer Kontingenztabelle auferlegt werden.

Das folgende Beispiel veranschaulicht das Konzept:

Nehmen wir an, dass die beiden Attribute A und B unabhängig voneinander sind

erwartete Frequenz oder die Zelle AB wäre 40 × 30/60 = 20. Sobald dies identifiziert ist, werden die Frequenzen der verbleibenden drei Zellen automatisch festgelegt. Für Zelle muss αB die erwartete Frequenz 40 - 20 = 20 sein, für Zelle AB muss es 30 - 20 = 10 sein, und für αB muss es 10 sein.

Dies bedeutet, dass wir für eine 2 × 2-Tabelle nur eine eigene Auswahl haben, während wir in den verbleibenden drei Zellen keine Freiheit haben. So lassen sich die Freiheitsgrade (df) nach folgender Formel berechnen:

df - (c - 1) (r - 1)

Dabei steht df für die Freiheitsgrade, c für die Anzahl der Spalten und r für die Anzahl der Zeilen.

Also in 2 x 3 Tabelle (Tabelle 18.54)

df = (3-1) (2-1) = 2 x 1 = 2

Bedeutungsgrad :

Wie bereits erwähnt, wird der Chi-Quadrat-Test verwendet, um zu prüfen, ob der Unterschied zwischen beobachteten und erwarteten Frequenzen auf Abtastschwankungen zurückzuführen ist und daher unbedeutend oder umgekehrt ist, ob der Unterschied auf einem anderen Grund beruht und somit signifikant ist.

Bevor der Schluss gezogen wird, dass der Unterschied von Bedeutung ist, stellen die Forscher eine Hypothese auf, die häufig als Nullhypothese (symbolisiert als H o ) bezeichnet wird, im Gegensatz zu der als Alternative zu H o aufgestellten Forschungshypothese (H 1 ).

Normalerweise, obwohl nicht immer, gibt die Nullhypothese an, dass es keinen Unterschied zwischen mehreren Gruppen oder keine Beziehung zwischen Variablen gibt, wohingegen eine Forschungshypothese entweder eine positive oder eine negative Beziehung vorhersagen kann.

Mit anderen Worten, die Nullhypothese geht davon aus, dass es keine Nicht-Abtastfehler gibt und der Unterschied allein auf den Zufall zurückzuführen ist. Dann wird die Wahrscheinlichkeit des Auftretens einer solchen Differenz bestimmt.

Die Wahrscheinlichkeit gibt an, inwieweit wir uns auf den Rückschluss verlassen können. Die Tabellenwerte von Chi-Quadrat sind mit verschiedenen Wahrscheinlichkeitsstufen verfügbar. Diese Ebenen werden als Signifikanzstufen bezeichnet. Aus der Tabelle können wir die Werte von Chi-Quadrat bei bestimmten Signifikanzniveaus ermitteln.

Normalerweise (im sozialwissenschaftlichen Problem) wird der Wert des Chi-Quadrats bei 0, 05 oder 0, 01 Signifikanzniveaus der gegebenen Freiheitsgrade aus der Tabelle gesehen und mit dem beobachteten Wert des Chi-Quadrats verglichen. Wenn der beobachtete Wert oder y 1 bei 0, 05 über dem Tabellenwert liegt, bedeutet dies, dass der Unterschied signifikant ist.

Freiheitsgrad :

Um den Chi-Quadrat-Test zu verwenden, ist der nächste Schritt die Berechnung der Freiheitsgrade: Nehmen wir an, wir haben eine 2 x 2-Kontingenztabelle wie in Abb. 1.

Wir kennen die Zeile und die Spaltensummen r t 1 und r t 2 - und c t 1 und c t 2 . Die Anzahl der Freiheitsgrade kann als die Anzahl der Zellenwerte definiert werden, die wir frei angeben können.

In Fig. 1 sind, sobald wir den einen Wert der Reihe 1 (in der Figur durch Prüfen angegeben) angegeben haben, der zweite Wert in dieser Reihe und die Werte der zweiten Reihe (mit X bezeichnet) bereits bestimmt; Wir können diese nicht angeben, da wir die Reihen- und Spaltensummen kennen. Dies zeigt, dass wir in einer 2 x 2-Kontingenztabelle nur einen Wert angeben können.

Verfahren :

Berechnung für Chi-Quadrat:

Chi-Quadrat als Test auf Passgenauigkeit:

Im vorherigen Abschnitt haben wir das Chi-Quadrat als Unabhängigkeitstest verwendet. das heißt, ob eine Nullhypothese akzeptiert oder abgelehnt werden soll. Die x ~ -Tests können auch verwendet werden, um zu entscheiden, ob ein signifikanter Unterschied zwischen einer beobachteten Häufigkeitsverteilung und einer theoretischen Häufigkeitsverteilung besteht.

Auf diese Weise können wir feststellen, wie gut die beobachteten und erwarteten Frequenzen passen. Das heißt, die Anpassung würde als gut angesehen, wenn zwischen den beobachteten und den erwarteten Daten keine signifikante Abweichung besteht, wenn die Kurve der beobachteten Frequenzen der Kurve der erwarteten Frequenzen überlagert wird.

Wir müssen jedoch bedenken, dass der Chi-Quadrat-Wert auch bei unveränderten Anteilen in den Zellen direkt mit der Gesamtzahl der Fälle (N) variiert. Wenn wir die Anzahl der Fälle verdoppeln, wird der Chi-Quadrat-Wert verdoppelt. Wenn wir die Anzahl der Fälle verdreifachen, verdreifachen wir auch das Chi-Quadrat und so weiter.

Die Implikationen dieser Tatsache können durch ein Beispiel veranschaulicht werden:

Im vorliegenden Beispiel beträgt der Chi-Quadrat-Wert 3, 15. Auf dieser Grundlage würden wir natürlich schließen, dass die Beziehung nicht signifikant ist.

Angenommen, es wurden Daten zu 500 Fällen mit den folgenden Ergebnissen gesammelt:

Der aus den Zahlen berechnete Chi-Quadrat-Wert beträgt jetzt 6, 30, was das Doppelte des im vorherigen Beispiel erreichten Werts ist. Der Wert 6, 30 ist statistisch signifikant. Wenn wir die Ergebnisse in Prozent ausgedrückt hätten, hätte es keine Interpretationsunterschiede gegeben.

Die obigen Beispiele veranschaulichen einen sehr wichtigen Punkt, nämlich, dass das Chi-Quadrat direkt proportional zu N ist. Daher benötigen wir eine Maßnahme, die nicht nur von einer Änderung der Anzahl der Fälle beeinflusst wird. Das Maß phi (ǿ) bietet diese Möglichkeit, dh die Eigenschaft, die wir in unserem Maß wünschen. Dieses Maß ist einfach ein Verhältnis zwischen dem Chi-Quadrat-Wert und der numerischen Summe der untersuchten Fälle.

Das Maß phi (ø) ist definiert als:

Ø = √x 2 / n

das heißt, die Quadratwurzel von Chi-Quadrat geteilt durch die Anzahl der Fälle.

Durch Anwendung dieser Formel auf die beiden oben genannten Beispiele erhalten wir im ersten Fall:

Somit ergibt das Maß ø im Gegensatz zum Chi-Quadrat das gleiche Ergebnis, wenn die Anteile in den vergleichbaren Zellen identisch sind.

G. Udny Yule hat einen weiteren Koeffizienten vorgeschlagen, der üblicherweise als "Q" (allgemein als Yules Q bezeichnet) bezeichnet wird. x 2 tisch. Der Assoziationskoeffizient (Q) wird durch Berechnen des Verhältnisses zwischen der Differenz und der Summe der Kreuzprodukte der Diagonalzellen erhalten, wenn Zellen der 2 × 2-Tabelle wie in der folgenden Tabelle angegeben sind:

ac-bc / ad + be

wobei a, b, c und d sich auf die Zellenfrequenzen beziehen.

Der Assoziationskoeffizient Q variiert zwischen minus eins und plus eins (+1), wenn er kleiner oder größer als ad ist. Q erreicht seine Grenzen von +1, wenn eine der Zellen Null ist, dh die Assoziation ist abgeschlossen (die Korrelation ist perfekt). Q ist null, wenn die Variablen unabhängig sind (d. H. Wenn keine Zuordnung vorliegt), dh wenn ad angezeigt wird. = sein und. Q = 0.

Die Anwendung der obigen Formel wird im folgenden Beispiel veranschaulicht:

Lassen Sie uns auf der Grundlage der in der folgenden Tabelle dargestellten Daten Yules Assoziationskoeffizienten zwischen Familienstand und Leistung bei der Prüfung berechnen:

Ersetzen der obigen Werte in die Yule-Formel:

Somit besteht ein geringfügiger negativer Zusammenhang zwischen Familienstand und Prüfungsleistung.

Wir können das Problem auch aus einem anderen Blickwinkel betrachten.

Der Prozentsatz verheirateter Studenten, die versagt haben, beträgt = 60 × 100/150 = 40.

Der Prozentsatz der unverheirateten Studenten, die versagt haben, beträgt: 100 × 100/350 = 28, 57 (Ca.)

So haben 40% der verheirateten und fast 29% der unverheirateten Studenten die Prüfung nicht bestanden. Daher kann die schlechte Leistung der Schüler auf den Familienstand zurückgeführt werden.

Kausale Schlüsse können in experimentellen Situationen sehr sicher festgestellt werden. Wir haben uns dieses Problems mit experimentellen Designs beschäftigt. In den Sozialwissenschaften ist es sehr schwierig, ein Experiment zu erstellen, daher sind die meisten Studien nicht experimentell. Es wurden jedoch analytische Verfahren entwickelt, um in nicht-experimentellen Studien Rückschlüsse auf ursächliche Zusammenhänge zu ziehen.

Soweit die meisten Sozialforscher eine Untersuchung der aus der "Bevölkerung" entnommenen Proben beinhalten und darauf abzielen, Verallgemeinerungen auf diese "Bevölkerung" zu lenken, ist es im Interesse der Wissenschaft notwendig zu wissen, inwieweit die so gezogenen Verallgemeinerungen sind gerechtfertigt.

Angenommen, in einer Studie mit Stichproben von männlichen und weiblichen Studenten zeigen unsere Ergebnisse signifikante Unterschiede zwischen den beiden Stichproben hinsichtlich der Stundenzahl, die sie für das Studium aufwenden.

Wir können fragen, ob die beobachteten Unterschiede die wahren Unterschiede zwischen den männlichen und weiblichen Studenten widerspiegeln oder ob die beiden "Populationen" der Studenten in Bezug auf die Stunden, die sie dem Studium widmen, tatsächlich gleich sind, aber die Stichproben dieser "Populationen". denn die Studie hätte sich in diesem Ausmaß durch den Zufall unterscheiden können.

Es wurde eine Reihe statistischer Verfahren entwickelt, um eine solche Frage in Bezug auf die Wahrscheinlichkeitsangaben beantworten zu können.

Wenn wir Proben vergleichen oder den Unterschied zwischen experimentellen Gruppen und Kontrollgruppen untersuchen, möchten wir normalerweise einige Hypothesen über die Art des wahren Unterschieds zwischen den "Populationen" testen, die von den untersuchten Proben repräsentiert werden sollen.

In den Sozialwissenschaften befassen wir uns in der Regel mit relativ groben Hypothesen (zum Beispiel widmen die Studentinnen mehr Zeit für ihr Studium als die männlichen Studenten).

Wir sind normalerweise nicht in der Lage, eine spezifischere oder genaue Hypothese zu berücksichtigen (z. B., die den Unterschied zwischen den beiden "Populationen" genau angibt). Angenommen, unsere Daten zeigen, dass die Stichprobe von weiblichen Studierenden im Durchschnitt vier Stunden für das Studium verwendet, wohingegen die Stichprobe von männlichen Studierenden nur zwei Stunden beträgt.

Die Ergebnisse unserer Stichproben stimmen eindeutig mit der Hypothese überein, dh Studentinnen widmen ihrem Studium mehr Zeit als ihre männlichen Kollegen. Wir müssen jedoch ständig daran denken, dass die auf unseren Proben basierenden Befunde möglicherweise nicht genau dieselben sind wie die Befunde, die wir erhalten hätten, wenn wir zwei "Populationen" in toto untersucht hätten.

Nun wollen wir abschätzen, ob wir bei den Studentinnen noch mehr Zeit für das Studium verbracht hätten, wenn wir die Gesamtbevölkerung untersucht hätten. Eine solche Schätzung ist möglich, wenn wir die Nullhypothese prüfen.

Die "Nullhypothese" besagt, dass sich die "Populationen" in Bezug auf die untersuchten Merkmale nicht unterscheiden. In diesem Fall würde eine „Nullhypothese“ besagen, dass sich die Untergruppen der weiblichen und männlichen Studierenden in der größeren „Bevölkerung“ der Studenten insgesamt nicht in der Zeit unterscheiden, die sie ihrem Studium widmen.

Verschiedene statistische Techniken, die als Signifikanztests bezeichnet werden, sind entwickelt worden, die uns helfen, die Wahrscheinlichkeit abzuschätzen, dass sich unsere beiden Proben in dem Maße unterschieden haben, in dem sie sich zufällig unterschieden, selbst wenn tatsächlich kein Unterschied zwischen den beiden entsprechenden "männlichen Populationen" besteht und Studentinnen in Bezug auf die Studienzeit.

Bei den verschiedenen Methoden zum Testen der Signifikanz hängt die Entscheidung, welche Methode für eine bestimmte Studie geeignet ist, von der Art der verwendeten Messungen und der Verteilung der Merkmale ab (z. B. Studienzeiten, Anzahl der Kinder, Gehaltsvorstellungen usw.). ).

Bei den meisten dieser Signifikanztests wird davon ausgegangen, dass die Messungen eine Intervallskala darstellen und die Verteilung der Kennlinie einer normalen Kurve angenähert ist. In der Sozialforschung entsprechen diese Annahmen selten der Realität. Die jüngsten statistischen Entwicklungen haben jedoch eine Art Lösung gefunden, in Form nichtparametrischer Tests, die nicht auf diesen Annahmen beruhen.

An dieser Stelle sollten wir versuchen zu verstehen, warum die "Nullhypothese" getestet werden sollte, wenn unser eigentliches Interesse an der Prüfung einer Hypothese (so genannte Alternativhypothese) besteht, die besagt, dass zwischen den beiden "Populationen" ein Unterschied besteht. dargestellt durch die Proben.

Der Grund ist leicht zu schätzen. Da wir das wahre Bild der „Bevölkerung“ nicht kennen, können wir am besten Rückschlüsse auf der Grundlage unserer Stichprobenerhebung ziehen.

Wenn wir zwei Beispiele vergleichen, gibt es natürlich zwei Möglichkeiten:

(1) Entweder sind die von der Stichprobe dargestellten Populationen gleich oder

(2) Sie sind unterschiedlich.

Unsere Stichproben aus zwei "Populationen" unterscheiden sich in Bezug auf einige Attribute. Stunden für das Studium in unserem Beispiel. Dies könnte natürlich der Fall sein, wenn sich die beiden "Populationen", die die Stichproben darstellen, tatsächlich in Bezug auf das genannte Attribut unterscheiden.

Dies stellt jedoch keinen endgültigen Beweis dafür dar, dass sich diese "Populationen" unterscheiden, da immer die Möglichkeit besteht, dass die Proben nicht genau den "Populationen" entsprechen, die sie repräsentieren wollen.

Wir müssen daher Raum für die Möglichkeit geben, dass das Element des Zufalls, das bei der Auswahl einer Probe involviert ist, uns von einander verschiedene Proben gegeben hat, obwohl sich die beiden "Populationen", aus denen sie gezogen werden, tatsächlich nicht unterscheiden.

Die Frage, die wir uns stellen möchten, lautet daher:

"Könnten wir möglicherweise Proben haben, die sich in ihrem Ausmaß voneinander unterscheiden, selbst wenn sich die" Populationen ", aus denen sie gezogen werden, nicht unterscheiden?" Dies ist genau die Frage, die eine "Nullhypothese" beantwortet.

Die "Nullhypothese" hilft uns abzuschätzen, wie die Chancen aussehen, dass die beiden Proben, die sich in diesem Ausmaß unterscheiden, aus zwei "Populationen" gezogen wurden, die tatsächlich gleich sind: 5 von 100? 1 in 100? oder Wasauchimmer.

Wenn der statistische Signifikanztest darauf hindeutet, dass es unwahrscheinlich ist, dass zwei Proben, die sich in diesem Umfang unterscheiden, aus tatsächlich ähnlichen "Populationen" gezogen werden könnten, können wir zu dem Schluss kommen, dass sich die beiden "Populationen" wahrscheinlich voneinander unterscheiden.

Hierbei ist zu beachten, dass alle statistischen Signifikanztests und damit alle Verallgemeinerungen von den Stichproben bis zu den Populationen davon ausgehen, dass die Stichproben nicht so ausgewählt werden, dass eine Verzerrung in den Prozess der Stichprobenerhebung einbezogen werden könnte.

Mit anderen Worten, die Annahme ist, dass die von uns ausgewählte Stichprobe so gezeichnet wurde, dass alle Fälle oder Elemente in der "Grundgesamtheit" die gleiche oder vorgebbare Chance hatten, in die Stichprobe aufgenommen zu werden.

Wenn diese Annahme nicht gerechtfertigt ist, werden die Signifikanztests bedeutungslos und unanwendbar. Mit anderen Worten, die Signifikanztests gelten nur, wenn das Wahrscheinlichkeitsprinzip bei der Auswahl der Stichprobe angewandt wurde.

Um zu unserer Illustration zurückzukehren, nehmen wir an, dass unsere Ergebnisse keinen Unterschied zwischen den beiden Stichproben aufweisen. Dies bedeutet, dass sowohl männliche als auch weibliche Schüler unserer Stichprobe gleich viel Zeit für ihr Studium aufwenden.

Können wir dann sagen, dass die beiden "Populationen" von männlichen und weiblichen Studenten in Bezug auf dieses Attribut ähnlich sind? Natürlich können wir dies nicht mit Sicherheit sagen, da die Möglichkeit besteht, dass die Proben sich unterscheiden, wenn sich die Populationen tatsächlich unterscheiden.

Um auf den Fall zurückzukommen, in dem sich die beiden Stichproben unterscheiden, können wir feststellen, dass sich die beiden Bevölkerungen, die sie repräsentieren, wahrscheinlich unterscheiden, wenn wir die 'Null-Hypothese' ablehnen können. Das heißt, wenn wir zeigen können, dass der Unterschied zwischen den beiden Stichproben unwahrscheinlich ist, wenn sich die oben genannten "Populationen" nicht unterscheiden.

Aber auch hier besteht die Möglichkeit, dass wir die Null-Hypothese ablehnen, da die Wahrscheinlichkeit hoch ist, dass manchmal sogar sehr unwahrscheinliche Ereignisse eintreten.

Es gibt auch eine andere Seite. Genauso wie wir falsch sein können, wenn wir die Nullhypothese zurückweisen, ist es auch wahrscheinlich, dass wir falsch sind, wenn wir die Nullhypothese akzeptieren. Das heißt, auch wenn unser statistischer Signifikanztest zeigt, dass Stichprobenunterschiede leicht zufällig entstanden sein könnten, obwohl die "Populationen" ähnlich sind, kann es dennoch zutreffen, dass sich die "Populationen" tatsächlich unterscheiden.

Mit anderen Worten, wir sind immer mit dem Risiko konfrontiert, eine der beiden Arten von Fehlern zu machen:

(1) Wir können die "Nullhypothese" zurückweisen, wenn sie tatsächlich wahr ist.

(2) Wir können die "Nullhypothese" akzeptieren, wenn sie tatsächlich falsch ist.

Der erste Fehlertyp können wir den Typ I-Fehler nennen. Daraus lässt sich schließen, dass sich die beiden "Bevölkerungen" unterscheiden, wenn sie tatsächlich gleich sind.

Der zweite Fehlertyp kann als Fehler vom Typ II bezeichnet werden. Daraus lässt sich schließen, dass die beiden "Bevölkerungen" gleich sind, wenn sie sich tatsächlich unterscheiden.

Das Risiko, den Typ I-Fehler zu machen, wird durch das Signifikanzniveau bestimmt, das wir in unseren statistischen Tests akzeptieren möchten, z. B. 0, 05, 0, 01, 0, 001 usw. (d. H. 5 von 100, 1 von 100 und 1 von 1000) Wenn wir beispielsweise entscheiden, dass sich die Populationen wirklich unterscheiden, dann zeigt ein Signifikanztest, dass erwartet wird, dass der Unterschied zwischen den beiden Stichproben in 100 nicht zufällig fünfmal vorkommt.

Das bedeutet, wenn die beiden von der Stichprobe dargestellten „Populationen“ tatsächlich in Bezug auf ein bestimmtes Attribut ähnlich sind, akzeptieren wir 5 von 100 Chancen, dass wir die „Null-Hypothese“ ablehnen werden. Wir können natürlich das Risiko minimieren, Typ I-Fehler zu machen, indem wir unser Kriterium für die Ablehnung der Nullhypothese strenger und strenger machen.

Wir können zum Beispiel das Signifikanzniveau bei 0, 01 bestimmen, dh wir würden die 'Nullhypothese' nur dann ablehnen, wenn der Test zeigt, dass der Unterschied in den beiden 'Stichproben' nur einmal in hundert zufällig aufgetreten sein könnte.

Wir sagen im Wesentlichen, dass wir die 'Nullhypothese' ablehnen werden, wenn der Test zeigt, dass von hundert Proben einer bestimmten Größe, die aus den jeweiligen "Populationen" ausgewählt werden, indem das Wahrscheinlichkeitsprinzip verwendet wird, nur eine Probe einen Unterschied zeigt in Bezug auf die Attribute, soweit dies in den beiden untersuchten Stichproben zu sehen ist.

Das Kriterium für die Ablehnung der „Nullhypothese“ kann durch eine weitere Erhöhung des Signifikanzniveaus noch strenger gemacht werden. Die Schwierigkeit besteht hier jedoch darin, dass die Fehler von Typ I und Typ II zufällig so aufeinander bezogen sind, dass je mehr wir uns gegen einen Typ I-Fehler schützen, desto anfälliger ist ein Typ-II-Fehler.

Wenn wir das Ausmaß des Risikos für Fehler des Typs I, den wir ausführen möchten, ermittelt haben, besteht die einzige Möglichkeit zur Verringerung der Wahrscheinlichkeit eines Fehlers des Typs II darin, größere Stichproben zu nehmen und statistische Tests zu verwenden, die die verfügbaren relevanten Informationen maximal nutzen.

Die Situation bezüglich des Fehlers vom Typ II kann durch eine "Öffnungskennlinie" sehr genau veranschaulicht werden. Das Verhalten dieser Kurve hängt davon ab, wie groß die Probe ist. Je größer die Stichprobe ist, desto unwahrscheinlicher ist es, dass wir eine Hypothese akzeptieren werden, die auf einen Sachverhalt hindeutet, der extrem vom Realitätszustand entfernt ist.

Da die Beziehung zwischen den Fehlern Typ I und Typ II umgekehrt ist, muss ein angemessenes Gleichgewicht zwischen den beiden Risikoarten gefunden werden.

In den Sozialwissenschaften ist es fast zu einer etablierten Praxis oder Konvention geworden, die "Null-Hypothese" abzulehnen, wenn der Test zeigt, dass der Unterschied zwischen den Stichproben nicht zufällig mehr als 5 von 100 ausfallen würde. Aber die Konventionen sind nützlich, wenn sie da sind ist kein anderer vernünftiger Leitfaden.

Die Entscheidung, wie das Gleichgewicht zwischen den beiden Arten von Fehlern hergestellt werden soll, muss vom Forscher getroffen werden. In manchen Fällen ist es wichtiger, eine falsche Hypothese abzulehnen, als sie falsch ist, als sie nicht zu akzeptieren, wenn sie wahr ist. In anderen Fällen kann das Gegenteil zutreffen.

In bestimmten Ländern wird es beispielsweise als wichtiger angesehen, eine Schuldhypothese abzulehnen, wenn sie falsch ist, als diese Hypothese nicht zu akzeptieren, wenn sie zutrifft, dh eine Person wird als nicht schuldig betrachtet, solange ein begründeter Zweifel besteht über seine Schuld In einigen anderen Ländern gilt eine Person, die wegen eines Verbrechens angeklagt ist, bis zu einem Zeitpunkt als schuldig, in dem sie ihre Schuldlosigkeit bewiesen hat.

In vielen Untersuchungen gibt es natürlich keine klare Grundlage für die Entscheidung, ob ein Fehler vom Typ I oder Typ II kostspieliger wäre, und der Ermittler nutzt die herkömmliche Ebene zur Bestimmung der statistischen Signifikanz. Es gibt jedoch Studien, in denen eine Art von Fehler deutlich teurer und schädlicher wäre als die andere.

Angenommen, in einer Organisation wurde vorgeschlagen, dass eine neue Methode der Arbeitsteilung wirksamer wäre, und dass auch diese Methode einen hohen Aufwand erfordert.

Wenn ein Experiment aus zwei Gruppen von Mitarbeitern - einer als Experimentalgruppe und der anderen als Kontrollgruppe - besteht, wird getestet, ob die neue Methode wirklich für die organisatorischen Ziele von Nutzen ist und ob erwartet wird, dass die neue Methode dazu führt Eine Menge Ausgaben würde die Organisation nicht annehmen wollen, wenn ihre Überlegenheit nicht hinreichend gesichert ist.

Mit anderen Worten, es wäre teuer, einen Fehler vom Typ 1 zu machen, dh zu dem Schluss, dass die neue Methode besser ist, wenn dies nicht der Fall ist.

Wenn die neue Methode mit Ausgaben verbunden war, die in etwa der alten Methode entsprachen, wäre ein Fehler des Typs II unerwünscht und schädlicher, da das Management die neuen Methoden möglicherweise nicht anwenden kann, wenn sie tatsächlich überlegen sind Daher hat die Organisation langfristige Vorteile.

Jede Verallgemeinerung von der Stichprobe auf die "Bevölkerung" ist lediglich eine Angabe der statistischen Wahrscheinlichkeit. Sagen wir, wir haben uns entschieden, mit einem Signifikanzniveau von 0, 05 zu arbeiten. Dies bedeutet, dass wir die 'Nullhypothese' nur dann ablehnen werden, wenn zu erwarten ist, dass die von uns beobachtete Probendifferenz der Größenordnung zufällig nicht mehr als fünfmal in 100 auftritt.

Natürlich werden wir die "Null-Hypothese" akzeptieren, wenn zu erwarten ist, dass ein solcher Unterschied mehr als fünfmal von 100 zufällig auftritt. Nun stellt sich die Frage: Ist unser Befund einer dieser fünf Fälle, in denen ein solcher Unterschied auftreten könnte? zufällig erschienen

Diese Frage kann aufgrund eines isolierten Befundes nicht abschließend beantwortet werden. Es kann jedoch möglich sein, etwas darüber zu sagen, wenn wir die Muster unserer Befunde untersuchen.

Angenommen, wir sind daran interessiert, die Auswirkungen eines Films auf die Einstellung zu einem bestimmten Regierungsprogramm zu testen, sagen Familienplanung. Wir haben, so sagen wir, mit aller Sorgfalt darauf geachtet, die gewünschten experimentellen Bedingungen maximal zu halten.

Angenommen, wir verwenden als ein Maß für die Einstellung zum Programm nur einen Punkt, nämlich die Einstellung zum Abstand von Kindern, und finden, dass diejenigen, die den Film gesehen haben, dieser Angelegenheit günstiger gegenüber stehen als diejenigen, die den Film nicht gesehen haben.

Nehmen wir nun an, der statistische Test zeigt, dass der Unterschied nicht zufällig aufgrund von Stichprobenschwankungen mehr als einmal in 20 aufgetreten wäre. Logischerweise bedeutet das auch, dass es zufällig einmal in zwanzig (oder fünfmal in 100) aufgetaucht sein könnte. Wie bereits erwähnt, wissen wir nicht genau, ob es sich bei unserer Stichprobe um eine von fünf in 100 handelt. Was können wir nun am besten tun?

Sagen wir, wir haben den Befragten 40 verschiedene Fragen gestellt, die ein vernünftiger Indikator für die Haltung gegenüber dem Regierungsprogramm für die Familienfürsorge sind. Wenn wir ein Konfidenzniveau von 5% verwenden und 100 Fragen stellen, könnten wir erwarten, dass statistisch signifikante Unterschiede bei 5 von ihnen auftreten.

So können wir von unseren 40 Fragen zu verschiedenen Themen statistisch signifikante Unterschiede bei zwei davon erwarten. Angenommen, wir stellen tatsächlich fest, dass 25 von 40 Fragen zu denjenigen, die den Film sahen, günstigere Einstellungen hatten als diejenigen, die den Film nicht sahen.

In diesem Fall könnten wir uns viel sicherer fühlen, wenn wir zu dem Schluss kommen, dass es einen echten Unterschied in den Einstellungen gibt (obwohl der statistische Test darauf hinweist, dass der Unterschied bei jeder Frage 5 von 100 zufällig entstanden sein könnte).

Nehmen wir nun an, dass aus den 40 Fragen nur Antworten auf eine, dh über den Abstand von Kindern, einen statistisch signifikanten Unterschied zwischen den beiden Gruppen der Filmexponierten und denen der Nicht-Filmgruppen zeigten. Dieser Unterschied könnte ebenso zufällig entstanden sein.

Andererseits kann es sein, dass der Inhalt des Films tatsächlich die Meinungen zu diesem Punkt beeinflusst hat, nicht jedoch zu irgendeinem anderen Punkt (wie etwa zu Sterilitätsoperationen). Wenn jedoch unsere Hypothese nicht ausdrücklich vorhergesagt hat, dass der Film die Einstellung der Kinder zum Abstand der Kinder eher beeinflussen würde als die Einstellung zu einer der anderen 39 Fragen, sind wir mit dieser Interpretation nicht berechtigt.

Eine solche Interpretation, dh eine Erklärung, die zur Feststellung der Befunde nach deren Auftauchen herangezogen wird, wird als "post-factum" -Interpretation bezeichnet, da dazu Erklärungen erforderlich sind, um die Feststellungen zu rechtfertigen, was immer sie auch sind. Es hängt vom Einfallsreichtum des Forschers ab, welche Erklärung er erfinden kann, um diese Ergebnisse zu rechtfertigen. Er kann daher auch die gegenteiligen Feststellungen rechtfertigen.

Merton hat sehr deutlich darauf hingewiesen, dass die Interpretationen nach dem Faktum dazu dienen, Beobachtungen zu „erklären“. Die Methode der Erklärung nach dem Faktum ist völlig flexibel. Wenn der Forscher feststellt, dass Arbeitslose dazu neigen, weniger Bücher zu lesen als zuvor, kann dies durch die Hypothese erklärt werden, dass Angstzustände aufgrund von Arbeitslosigkeit die Konzentration beeinträchtigen und das Lesen dadurch erschwert wird.

Wenn jedoch festgestellt wird, dass Arbeitslose mehr Bücher lesen als zuvor (während ihrer Beschäftigung), kann eine neue Erklärung nach dem Faktum herangezogen werden; Die Erklärung ist, dass Arbeitslose mehr Freizeit haben und deshalb mehr Bücher lesen.

Der kritische Test einer ermittelten Beziehung (zwischen Variablen) ist nicht die nachträglichen Gründe und Erklärungen dafür; es ist vielmehr die Fähigkeit, es vorherzusagen oder andere Beziehungen auf dieser Grundlage vorherzusagen. Unsere bisher nicht vorhersehbare Feststellung eines Unterschieds in der Einstellung der Kinderabstände, auch wenn sie statistisch signifikant ist, kann von der von uns durchgeführten Studie nicht als gesichert angesehen werden.

Da statistische Aussagen Wahrscheinlichkeitsangaben sind, können wir uns niemals vollständig auf die statistischen Beweise verlassen, um zu entscheiden, ob wir eine Hypothese als wahr akzeptieren oder nicht.

Das Vertrauen in die Interpretation eines Forschungsergebnisses erfordert nicht nur statistisches Vertrauen in die Zuverlässigkeit des Befundes (dh dass die Unterschiede wahrscheinlich nicht zufällig aufgetreten sind), sondern auch einige Beweise für die Gültigkeit der Voraussetzungen der Forschung.

Dieser Nachweis ist notwendigerweise indirekt. Sie ergibt sich aus der Übereinstimmung der gegebenen Forschungsergebnisse mit anderen Erkenntnissen, die sich dem Test der Zeit widersetzt haben und demzufolge eine beträchtliche Sicherheit besteht.

Selbst bei der strengsten kontrollierten Untersuchung erfordert die Schaffung von Vertrauen in die Interpretation der eigenen Ergebnisse oder die Anrechnung kausaler Zusammenhänge eine Replikation der Forschung und die Verknüpfung der Ergebnisse mit denen anderer Studien.

Es ist darauf hinzuweisen, dass, selbst wenn statistische Tests und die Ergebnisse einer Reihe von Studien darauf schließen lassen, dass tatsächlich zwei Gruppen oder eine konsistente Beziehung zwischen zwei Variablen bestehen, dies nicht der Grund für die Beziehung ist.

Wenn wir kausale Schlüsse ziehen wollen (z. B. erzeugt X Y), müssen wir Annahmen treffen, die über die Annahmen hinausgehen, die zur Feststellung der Existenz einer Beziehung erforderlich sind. Es ist auch erwähnenswert, dass ein Ergebnis nicht sozial oder psychologisch signifikant ist, nur weil es statistisch signifikant ist. Viele statistisch signifikante Unterschiede können im praktischen Sprachgebrauch trivial sein.

Beispielsweise kann ein durchschnittlicher Unterschied von weniger als einem IQ-Punkt zwischen Stadt und Land statistisch signifikant sein, im täglichen Leben jedoch nicht. Im Gegensatz dazu gibt es Fälle, in denen ein kleiner, aber zuverlässiger Unterschied von großer praktischer Bedeutung ist.

Bei einer groß angelegten Umfrage kann beispielsweise ein Unterschied von einem halben oder einem Prozent Hunderttausende von Menschen ausmachen, und das Bewusstsein für den Unterschied kann für wichtige politische Entscheidungen wichtig sein. Daher muss sich der Forscher nicht nur mit der statistischen Signifikanz seiner Ergebnisse befassen, sondern auch mit deren sozialen und psychologischen Bedeutungen.

Kausale Beziehungen ableiten:

Aufgrund offensichtlicher Schwierigkeiten können solche starren Versuchspläne in sozialwissenschaftlichen Untersuchungen nur selten erarbeitet werden. Die meisten Untersuchungen in den Sozialwissenschaften haben keinen experimentellen Charakter.

In solchen Studien gibt es bestimmte empirische Hindernisse bei der Bestimmung, ob eine Beziehung zwischen Variablen ursächlich ist oder nicht. Es wurde immer wieder erwähnt, dass eine der schwierigsten Aufgaben bei der Analyse sozialer Verhaltensdaten der Aufbau von Ursache-Wirkungs-Beziehungen ist.

Eine problematische Situation verdankt ihren Ursprung und den Prozess des Werdens nicht nur einem Faktor, sondern einem Komplex verschiedener Faktoren und Abläufe.

Die Entflechtung dieser Elemente stellt die soziologische Phantasie vor große Herausforderungen und stellt die Fähigkeiten der Forscher auf die Probe. Es ist gefährlich, einer einspurigen Erklärung zu folgen, die zur Ursache führt. Es ist unerlässlich, nach einer ganzen Reihe von kausalen Faktoren zu suchen, die im Allgemeinen eine wichtige Rolle bei der Herbeiführung komplexer sozialer Situationen spielen.

Wie Karl Pearson treffend feststellt: „Kein Phänomen oder Stadium in Folge hat nur eine Ursache; Alle vorangegangenen Stufen sind aufeinander folgende Ursachen. Wenn wir Ursachen wissenschaftlich aufzeigen, beschreiben wir wirklich die aufeinanderfolgenden Stufen einer Routine der Erfahrung. “

Yule und Kendall haben erkannt, dass Statistiken „die Daten akzeptieren müssen, die unter dem Einfluss einer Vielzahl von Ursachen stehen, und dass sie versuchen müssen, anhand der Daten selbst herauszufinden, welche Ursachen die wichtigsten sind und wie viel von dem beobachteten Effekt verursacht wird die Bedienung von jedem. "

Paul Lazarsfeld hat die Phasen der Technik nachverfolgt, die er als "Unterscheidungskraft" bezeichnet. Er befürwortet seine Verwendung bei der Bestimmung der kausalen Beziehungen zwischen Variablen. Lazarsfeld legt dieses Verfahren fest:

(a) Überprüfung eines angeblichen Ereignisses wie folgt:

Um diesen Vorfall zu überprüfen, muss festgestellt werden, ob die Person die angeblichen Situationen tatsächlich erlebt hat. Wenn ja, wie manifestiert sich das Ereignis in seinem unmittelbaren Leben und unter welchen Bedingungen?

Welche Gründe sprechen für die Annahme, dass zwischen zwei Variablen ein spezifischer Zusammenhang besteht, z. B. Beschäftigungsverlust und Autoritätsverlust? Wie richtig ist die Begründung der Person in diesem speziellen Fall?

(b) Versuch herauszufinden, ob der behauptete Zustand mit objektiven Tatsachen des vergangenen Lebens dieser Person in Einklang steht.

(c) Testen aller möglichen Erklärungen für den beobachteten Zustand.

(d) Ausschluss der Erklärungen, die nicht dem Muster der Ereignisse entsprechen.

Es ist durchaus verständlich, dass die meisten Schwierigkeiten oder Hindernisse beim Aufbau kausaler Beziehungen nichtexperimentelle Studien am stärksten beeinträchtigen. In nicht-experimentellen Studien, bei denen das Interesse daran besteht, kausale Beziehungen zwischen zwei Variablen herzustellen, muss der Prüfer Ersatz für Schutzmaßnahmen finden, die offensichtlich in die experimentellen Studien eingebaut sind.

Viele dieser Schutzmaßnahmen treten zum Zeitpunkt der Planung der Datenerfassung in die Form ein, dass Informationen zu einer Reihe von Variablen gesammelt werden, die möglicherweise die alternativen Bedingungen für die Erzeugung des hypothetischen Effekts darstellen.

Durch die Einführung solcher zusätzlichen Variablen in die Analyse approximiert der Forscher einige der Kontrollen, die den Experimenten inhärent sind. Trotzdem bleibt die Schlussfolgerung der Kausalität in nicht-experimentellen Studien immer etwas gefährlich.

Wir werden nun einige der Probleme und die Strategien zu ihrer Überwindung diskutieren, die darauf schließen lassen, in nicht-experimentellen Studien Rückschlüsse auf die Kausalität zu ziehen. Wenn eine nicht-experimentelle Studie auf eine Beziehung oder einen Zusammenhang zwischen zwei Variablen, z. B. X und Y, hinweist, und wenn das Forschungsinteresse eher in kausalen Beziehungen als in der einfachen Tatsache der Verknüpfung von Variablen besteht, hat die Analyse nur ihren ersten Schritt unternommen.

Der Forscher muss außerdem (neben der Assoziation zwischen X und Y) darüber nachdenken, ob Y (Wirkung) vor X (der hypothetischen Ursache) aufgetreten sein könnte. In diesem Fall kann Y nicht die Wirkung von X sein.

Zusätzlich zu dieser Überlegung muss der Forscher über die Frage nachdenken, ob andere Faktoren als X (die vermutete Ursache) möglicherweise Y (die hypothetische Wirkung) hervorgerufen haben. Dies wird im Allgemeinen durch Hinzufügen zusätzlicher Variablen in die Analyse und durch Untersuchen, wie die Beziehung zwischen X und Y von diesen weiteren Variablen beeinflusst wird, berücksichtigt.

Wenn die Beziehung zwischen X und Y auch dann bestehen bleibt, wenn andere vermutlich effektive und möglicherweise alternative Variablen eingeführt werden, bleibt die Hypothese, dass X die Ursache für Y ist, noch haltbar.

Wenn sich beispielsweise die Beziehung zwischen dem Verzehr einer bestimmten saisonalen Frucht (X) und Kälte (Y) nicht ändert, selbst wenn andere Variablen wie Alter, Temperatur, Verdauungszustand usw. in die Analyse einbezogen werden, können wir dies akzeptieren Hypothese, dass X zu Y als haltbar führt.

In nicht wenigen Fällen ist es jedoch möglich, dass durch die Einführung anderer zusätzlicher Variablen die Beziehung zwischen X und Y geändert wird. Dadurch kann die Beziehung zwischen X und Y vollständig beseitigt oder die Beziehung in einer Gruppe verbessert und verringert werden in einem anderen.

Wenn die Beziehung zwischen X (Verzehr von saisonalen Früchten) und Y (Kälte) in einer durch Z (schlechten Verdauungszustand) gekennzeichneten Untergruppe verbessert und in einer nicht durch Z gekennzeichneten Untergruppe (normaler Verdauungszustand) verringert wird, gilt: kann daraus schließen, dass Z die bedingte Bedingung für die Beziehung zwischen X und Y ist.

Das heißt, wir konnten Bedingung (Z) angeben, unter der die Beziehung zwischen X und Y gilt. Wenn nun durch die Einführung von Z in der Analyse die Beziehung zwischen X und Y reduziert oder vollständig beseitigt wird, können wir sicher sein, dass X kein Produzent von Y ist, das heißt, die Beziehung zwischen X und Y ist "unecht" oder so Wir haben den Prozess verfolgt, durch den X zu Y führt (dh durch Z).

Wenden wir uns der Situation zu, in der wir zu Recht davon ausgehen können, dass die Beziehung zwischen X und Y falsch ist.

Eine scheinbare Beziehung zwischen zwei Variablen X und Y wird als unecht bezeichnet, wenn ihre gleichzeitige Variation nicht auf einer Verbindung zwischen ihnen beruht, sondern auf der Tatsache, dass jede von ihnen (X und Y) sich auf eine dritte Variable (Z) oder eine Kombination bezieht von Variablen, die nicht als Link im Prozess dienen, durch den X zu Y führt.

Die Situation, die eine unechte Beziehung charakterisiert, kann wie folgt dargestellt werden:

Ziel ist es, die Ursache von Y, der abhängigen Variablen (die monetäre Erwartung von Hochschulabsolventen) zu bestimmen. Die Beziehung (gestrichelte Linie) zwischen X der unabhängigen Variablen (beispielsweise die von den Schülern erzielten Noten) und der monetären Erwartung der Absolventen (Y) wurde im Verlauf der Datenanalyse beobachtet.

Eine weitere Variable (Z) wird eingeführt, um zu sehen, wie sich die Beziehung zwischen X und Y bei der Eingabe dieses dritten Faktors verhält. Z ist der dritte Faktor (sagen wir mal das Einkommensniveau der Eltern der Schüler). Wir finden, dass die Einführung dieses Faktors die Beziehung zwischen X und Y verringert.

Das heißt, es stellt sich heraus, dass der Zusammenhang zwischen höheren Noten in der Prüfung und höheren monetären Erwartungen sich nicht selbst hält, sondern erheblich verringert wird, wenn wir die dritte Variable einführen, dh das Einkommen der Eltern.

Eine solche Einführung von Z bringt die Tatsache ans Licht, dass nicht X, sondern Z wahrscheinlich ein bestimmender Faktor für Y sein kann. Die Beziehung zwischen X und Y (im Diagramm durch eine gestrichelte Linie dargestellt) ist also eine unechte, während die Beziehung zwischen Z und Y sind echt. Lassen Sie uns dies anhand von hypothetischen Daten veranschaulichen.

Angenommen, im Verlauf der Analyse von Daten in einer Studie wurde festgestellt, dass zwischen den Noten oder Abteilungen (I, II, III), die die Studenten in der Prüfung erhalten haben, und dem Gehalt, das sie für einen Job erwarten, ein signifikanter Zusammenhang besteht Sie könnten zu ernannt werden.

So wurde beispielsweise festgestellt, dass die Erstteiler unter den Studenten im Allgemeinen eine höhere Vergütung im Vergleich zu den Zweitteilern und die Zweitteiler erwarteten mehr als die Drittteiler.

Die folgende Tabelle zeigt den hypothetischen Sachverhalt:

Aus der Tabelle geht eindeutig hervor, dass eine Hypothese aufgestellt werden kann, nach der die Noten der Schüler ihre Erwartungen an das Gehalt bestimmen. Nehmen wir nun an, der Forscher stößt irgendwie auf die Idee, dass das Einkommensniveau der Eltern (X) eine der wichtigen Variablen sein könnte, die die Gehaltserwartung der Studierenden bestimmen oder beeinflussen (Y). Somit wird Z in die Analyse eingeführt.

Angenommen, die folgende Tabelle stellt die Beziehung zwischen den Variablen dar:

Hinweis:

HML in der horizontalen Reihe, die jede Kategorie der Schülerstufen aufteilt, steht für ein hohes Einkommensniveau der Eltern, ein moderates Einkommensniveau der Eltern und ein niedriges Einkommensniveau der Eltern. Die obige Tabelle zeigt deutlich, dass die Beziehung zwischen X und Y im Vergleich zu der Beziehung zwischen Z und Y an Bedeutung verloren hat. '

To get a clearer picture, let us see the following table (a version of Table B omitting the categories of X) showing the relationship between Z and, ie, parental income level and students' monetary expectations:

We can very clearly see from the table that, irrespective of their grades, the students' monetary expectations are very strongly affected by the parental levels of income (Z).

We see that an overwhelming number of students (ie, 91.5%) having high monetary expectations are from the high parental income group, 92% having moderate monetary expectations are from moderate parental income group and lastly, 97% having low monetary expectations are from the low parental income group.

Comparing this picture with the picture represented by Table A, we may say that the relation between X and Y is spurious, that is, the grade of the students did not primarily determine the level of the monetary expectations of the students.

It is noted in Table A that students getting a higher grade show a significant tendency toward higher monetary expectations whereas the lower grade students have a very marked concentration in the lower monetary expectation bracket.

But when we introduce the third variable of parental income, the emerging picture becomes clear enough to warrant the conclusion that the real factor responsible differential levels of monetary expectations is the level of parental income.

In Tabelle C sehen wir eine sehr starke und beachtliche Konzentration von Fällen von Studenten, die den drei oben genannten Kombinationen entsprechen, dh höheren Gelderwartungen und höherem Elterneinkommen, moderaten Gelderwartungen und einem moderaten Elterneinkommen sowie niedrigeren Währungserwartungen und niedrigeres Elterneinkommen, dh 5%, 92, 1% bzw. 1%.

Verfolgung des involvierten Prozesses und einer Beziehung zwischen Variablen: Wenn ein dritter Faktor Z die Beziehung zwischen der unabhängigen Variablen X und der abhängigen Variablen Y verringert oder beseitigt, können wir, wie bereits gesagt, zu dem Schluss kommen, dass die Beziehung zwischen X und Y falsch ist. oder dass wir den Prozess verfolgen konnten, durch den X zu Y führt.

Wir werden nun die Umstände betrachten, die die Schlussfolgerung rechtfertigen, dass der Prozess der Beziehung zwischen X und Y durch einen dritten Faktor Z verfolgt wurde.

Angenommen, die Ermittler stellten in einer Studie fest, dass kleinere Gemeinschaften einen höheren durchschnittlichen Intimitätswert aufwiesen, wobei der Intimitätswert ein Maß für die Intimität der Assoziierung zwischen Mitgliedern einer Gemeinschaft ist, die mithilfe einer Intimitätsskala ermittelt wurde.

Angenommen, sie stellten auch fest, dass die mittelgroßen Gemeinden im Vergleich zu kleinen Gemeinden einen geringeren Intimitätswert hatten und große Gemeinden den niedrigsten durchschnittlichen Intimitätswert. Eine solche Feststellung legt nahe, dass die Größe der Gemeinschaft die Intimität der Verbindung zwischen Mitgliedern der Gemeinschaft bestimmt.

Mit anderen Worten, die Beobachtungen lassen den Schluss zu, dass die Mitglieder, die in einer kleinen Gemeinschaft leben, eine größere Vertrauensbeziehung haben, während die großen Gemeinschaften sich durch eine geringere Vertrautheit unter den Mitgliedern auszeichnen.

Die folgende Tabelle zeigt die hypothetischen Daten:

In der zweiten Spalte der Tabelle wurden für jede der Gemeinden entsprechende Beispiele gezeigt.

In der zweiten Spalte der Tabelle wurden für jede der Gemeinden entsprechende Beispiele gezeigt. In Spalte 3 wurden die durchschnittlichen Intimitätsbewertungen für die Arten von Gemeinschaften gezeigt, die auf der Grundlage der Antworten zu bestimmten Elementen auf einer Skala berechnet wurden, die sich auf die täglichen Verbindungen zwischen den Mitgliedern bezieht.

Aus der Tabelle ist ersichtlich, dass die durchschnittlichen Intimitätsbewertungen umgekehrt mit der Größe der Community variieren, dh je kleiner die Größe, desto größer die Intimitätsbewertung und umgekehrt, je größer die Größe, desto niedriger ist die Intimitätsbewertung.

Nehmen wir nun an, die Ermittler hatten die Idee, dass die drei Arten von Gemeinschaften sich hinsichtlich der Möglichkeiten unterscheiden würden, die sie für die Interaktion zwischen Mitgliedern bieten, da die Wohnvorkehrungen, Muster der Wohngemeinschaften, gemeinsam genutzte Versorgungsunternehmen usw. eine solche Vereinigung fördern.

Die Ermittler würden also den dritten Faktor in die Analyse des Interaktionspotentials einführen, dh inwieweit die Umstände, unter denen Personen leben, wahrscheinlich Interaktionsmöglichkeiten bieten.

Um die Hypothese zu überprüfen, dass die drei Arten von Gemeinschaften zu unterschiedlichen Interaktionen zwischen Mitgliedern einer Gemeinschaft geführt haben, würden die Ermittler die Größe der Gemeinschaft und die Größe der Gemeinschaft berücksichtigen Interaktionspotential gemeinsam im Verhältnis zum durchschnittlichen Intimitätswert.

Das Infraktionspotential ist somit die dritte in die Analyse eingeführte Variable Z. Das Interaktionspotential wird beispielsweise in ein niedriges Interaktionspotential (b) mittleres Interaktionspotential und (c) hohes Interaktionspotential klassifiziert.

Die folgende Tabelle zeigt die hypothetischen Daten:

Beim Lesen der Zeilen in der Tabelle sehen wir, dass das Interaktionspotenzial in starkem Zusammenhang mit der Intimitätsbewertung der Community-Mitglieder steht, unabhängig von der Größe der Community.

Das heißt, unabhängig davon, ob wir den Streit für kleine Gemeinden, für mittelgroße Gemeinschaften oder für große Gemeinden in Betracht ziehen, steigt der durchschnittliche Intimitätswert mit einem Anstieg des Interaktionspotenzials. Beim Lesen der Einträge über die Zeilen hinweg wird deutlich, dass die Größe der Community und das Interaktionspotenzial eine signifikante Korrelation aufweisen.

Zum Beispiel leben ungefähr zwei Drittel der Befragten in einer kleinen Gemeinde unter Bedingungen mit hohem Interaktionspotenzial. Wir stellen auch fest, dass ein viel geringerer Teil der Einwohner der gemäßigten Größe unter Bedingungen mit hohem Interaktionspotenzial und ein sehr kleiner Teil der Einwohner der großen Gemeinschaft unter Bedingungen mit hohem Interaktionspotenzial leben.

Nun lesen wir die Vertraulichkeitsbewertungen in den Spalten, um herauszufinden, dass die Beziehung zwischen der Art der Gemeinschaft und der Intimität der Assoziation erheblich reduziert wurde. Für Menschen, die unter Bedingungen mit hohem Interaktionspotenzial leben, besteht in der Tat keine eindeutige Beziehung zwischen der Größe der Gemeinschaft und der Intimitätsbewertung.

Aus dieser Reihe von Beziehungen können die Ermittler schlussfolgern, dass die umgekehrte Beziehung zwischen der Größe der Gemeinschaft und der Intimitätsbewertung gut ist, aber dass eine der Hauptarten, in denen eine bestimmte Art von Gemeinschaft die Intimität unter ihren Mitgliedern fördert, das Angebot ist Möglichkeiten, die die Interaktionsrate zwischen ihnen erhöhen.

Mit anderen Worten, die kleinen Gemeinschaften zeichnen sich durch einen höheren durchschnittlichen Intimitätswert aus, da ihre geringe Größe viele Möglichkeiten für ein hohes Maß an Interaktion zwischen Mitgliedern bietet. Große Gemeinden dagegen zeichnen sich durch einen relativ niedrigen Intimitätswert aus.

Der niedrigere Intimitätswert ist jedoch nicht auf die Größe der Gemeinschaft an sich zurückzuführen, sondern auf die Tatsache, dass eine große Gemeinschaft keine Möglichkeiten für eine stärkere Interaktion unter den Mitgliedern bieten kann, wie dies bei kleinen Gemeinschaften der Fall ist.

Daher können die Ermittler nicht zu dem Schluss kommen, dass die Beziehung zwischen der Größe der Gemeinschaft und dem durchschnittlichen Intimitätswert unter den Mitgliedern falsch ist, sie könnten den Schluss ziehen, dass sie den Prozess nachverfolgen können, durch den X (dh die Art der Gemeinschaft) Y beeinflusst (die Intimitätsbewertung).

Ersteres rechtfertigte die Schlussfolgerung, dass die Beziehung zwischen den Variablen X und Y falsch war, und letztere schlussfolgerte die Schlussfolgerung, dass der Prozess von X nach Y durch Z (X bis Z bis Y) verfolgt werden kann. In beiden Fällen reduzierte oder eliminierte die Einführung einer dritten Variablen Z die Beziehung zwischen ihnen (X und Y).

Ein Unterschied kann jedoch festgestellt werden. Im ersten Beispiel lag die Variable Z (dh das Einkommensniveau der Eltern) deutlich vor den beiden anderen Variablen (Prüfungsnote der Schüler und monetäre Erwartungen der Schüler).

Im zweiten Beispiel trat die dritte Variable Z (Interaktionspotential der Gemeinschaften) nicht vor der angenommenen Kausalvariablen (Größe der Gemeinschaft) auf. Es war gleichzeitig damit und man könnte denken, dass es danach beginnt.

Die zeitliche Abfolge der Variablen ist daher eine wichtige Überlegung bei der Entscheidung, ob ein scheinbarer Kausalzusammenhang falsch ist. Das heißt, wenn die dritte Variable Z, die die Beziehung zwischen den ursprünglich verwandten Variablen X und Y entfernt oder beseitigt, schließen wir normalerweise, dass die scheinbare kausale Beziehung zwischen den Variablen X und Y falsch ist.

Wenn jedoch bekannt ist oder angenommen wird, dass die dritte Variable zu den gleichen Zeitpunkten wie X oder nach X aufgetreten ist, kann dies zu dem Schluss führen, dass der Prozess, durch den X zu Y führt, verfolgt wurde Da das Vertrauen in den kausalen Zusammenhang aus Studien, die nicht experimenteller Natur sind, abgeleitet werden kann, ist es notwendig, sie dem kritischen Test der Eliminierung der anderen möglicherweise relevanten Variablen zu unterziehen.

Aus diesem Grund ist es wichtig, im Verlauf der Studie Daten zu solchen möglicherweise einflussreichen Variablen zu sammeln, mit Ausnahme derjenigen, bei denen die Hypothese der Studie von zentraler Bedeutung ist.

Es wurde bereits gesagt, dass die Einführung einer dritten Variablen in die Analyse dazu führen kann, dass die Beziehung innerhalb einer Untergruppe intensiviert und in einer anderen Untergruppe reduziert wird. Wenn dies der Fall ist, sagen wir, dass wir eine Bedingung (Z) festgelegt haben, unter der die Beziehung zwischen X und Y gilt.

Lassen Sie uns nun den Prozess der Spezifikation veranschaulichen. Angenommen, in einer Gemeinschaftsstudie wird zufällig ein Zusammenhang zwischen Einkommen und Bildungsniveau ermittelt.

Dies ist in der nachstehenden Tabelle dargestellt:

In der Tabelle sehen wir, dass die Beziehung zwischen Bildung und Einkommen ziemlich ausgeprägt ist. Je höher die Ausbildung, desto höher der Prozentsatz der Fälle, die ein Jahreseinkommen von Rs. 5.000 / - und mehr erzielen. Wir können jedoch entscheiden, dass die Beziehung weitere Angaben erfordert.

Das heißt, wir möchten vielleicht mehr über die Bedingungen erfahren, unter denen diese Beziehung zustande kommt. Nehmen wir an, der Gedanke kommt uns auf den Gedanken, dass die Tatsache, dass die Befragten in einer städtisch-industriellen Gemeinschaft leben, die Vorteile der Bildung für eine entlohnte Beschäftigung und damit ihre Einkommensreflexion positiv beeinflussen könnte.

Unter dieser Annahme führen wir den dritten Faktor Z, dh die Befragten, die in der städtischen Industrie und in der ländlichen nicht-industriellen Gemeinschaft leben, in die Analyse ein und sehen, wie sich dies auf die ursprüngliche Beziehung zwischen X und Y auswirkt ( dh Bildung und Einkommen).

Angenommen, wir erhalten ein Bild wie in der folgenden Tabelle gezeigt:

Wir können deutlich erkennen, dass die Tabelle B ein sehr unterschiedliches Verhältnis zwischen Einkommen und Bildung für die Menschen in der ländlichen und nicht industriellen Gemeinschaft im Vergleich zu denjenigen in der städtischen Industrie darstellt. Wir sehen, dass für die Einwohner der Industriestädte die Beziehung zwischen Bildung und Einkommen etwas höher ist als die ursprüngliche Beziehung.

Für diejenigen, die in ländlichen nichtindustriellen Gemeinschaften leben, ist die Beziehung in der obigen Tabelle jedoch wesentlich geringer als in der ursprünglichen Beziehung.

Somit hat die Einführung des dritten Faktors und der Abbau der ursprünglichen Beziehung auf der Grundlage des dritten Faktors (Z) dazu beigetragen, eine Bedingung festzulegen, unter der die Beziehung zwischen X und Y stärker ausgeprägt ist, als auch unter welcher Bedingung Die Beziehung ist weniger ausgeprägt.

Genauso nehmen wir an, dass wir in einer Studie feststellen, dass Personen, die der höheren Einkommensklasse angehören, im Allgemeinen eine geringere Anzahl von Kindern haben als Kinder der niedrigeren Einkommensklasse. Nehmen wir an, wir glauben (aufgrund einer theoretischen Orientierung), dass der Faktor Stadtleben für die Beziehung wichtig sein könnte.

Wenn wir diesen Faktor vorstellen, nehmen wir an, dass die ursprüngliche Beziehung zwischen Einkommensniveau und Anzahl der Kinder in der Stadt ausgeprägter ist und unter den ländlichen Bewohnern weniger ausgeprägt ist, als wir eine Bedingung Z (dh eine Stadtwohnung) identifiziert haben ), unter dem die Beziehung entscheidend verbessert oder ausgesprochen wird.

Interpretation der Ergebnisse einer Studie:

Bisher haben wir uns hauptsächlich mit den Verfahren befasst, die zusammen, wie wir es gewöhnlich nennen, die Analyse von Daten umfassen. Die Aufgabe des Forschers ist jedoch unvollständig, wenn er aufhört, seine Ergebnisse in Form empirischer Verallgemeinerungen darzustellen, zu denen er durch Analyse der Daten gelangt.

Ein Forscher, der seine Forschungsarbeit zum Beispiel beendet, indem er feststellt, dass "unverheiratete Menschen eine höhere Suizidrate im Vergleich zu verheirateten Personen haben", erfüllt seine allgemeine Verpflichtung gegenüber der Wissenschaft kaum, obwohl er die empirische Verallgemeinerung aufgestellt hat hat einen eigenen Wert.

Der Forscher, der im größeren Interesse der Wissenschaft ist, muss auch zeigen, dass seine Beobachtungen auf bestimmte Verhältnisse und Prozesse verweisen, die zunächst für das Auge verborgen sind. Mit anderen Worten, der Forscher muss zeigen, dass seine Beobachtung eine viel breitere und tiefere Bedeutung hat als die, die sie auf der Oberfläche zu haben scheint.

Um zu unserem Selbstmordbeispiel zurückzukehren, sollte der Forscher zeigen können, dass seine Beobachtung, dass "unverheiratete Menschen durch Selbstmord gekennzeichnet sind", tatsächlich die tiefere Beziehung zwischen sozialem Zusammenhalt und Selbstmordrate widerspiegelt (Durkheims Theorie).

Sobald der Forscher in der Lage ist, die Beziehungen und Prozesse aufzuzeigen, die seinen konkreten Ergebnissen zugrunde liegen, kann er abstrakte Beziehungen zwischen seinen und anderen Erkenntnissen herstellen.

Im Wesentlichen geht die Arbeit des Forschers also weit über die Sammlung und Analyse von Daten hinaus. Seine Aufgabe erstreckt sich auf die Interpretation der Ergebnisse seiner Studie. Durch Interpretation kann der Forscher die tatsächliche Bedeutung seiner Ergebnisse verstehen, dh er kann verstehen, warum die Ergebnisse so sind, wie sie sind.

Wie bereits erwähnt, ist Interpretation die Suche nach breiteren und abstrakteren Bedeutungen der Forschungsergebnisse. Diese Suche beinhaltet das Betrachten der Forschungsergebnisse anhand anderer Erkenntnisse, einer Theorie oder eines Prinzips. Diese Suche hat zwei Hauptaspekte.

Der erste Aspekt betrifft das Bestreben, eine Kontinuität in der Forschung herzustellen, indem die Ergebnisse einer bestimmten Studie mit denen einer anderen verknüpft werden. Durch Interpretation kann der Forscher das abstrakte Prinzip unter den konkreten empirischen Beobachtungen aufdecken oder verstehen.

Nachdem dieser abstrakte gemeinsame Nenner erkannt wurde, kann der Forscher seine Ergebnisse leicht mit den Ergebnissen anderer Studien verknüpfen, die in verschiedenen Details durchgeführt wurden, die in Detailfragen unterschiedlich sind, jedoch das gleiche abstrakte Prinzip auf der Ebene der Ergebnisse widerspiegeln.

Es ist unnötig zu erwähnen, dass der Forscher auf der Grundlage der Erkenntnis des abstrakten theoretischen Prinzips, das seinem Befund zugrunde liegt, verschiedene Vorhersagen über die konkrete Welt der Ereignisse treffen kann, die scheinbar unabhängig von dem Bereich seiner Befunde sind. Daher können neue Abfragen ausgelöst werden, um Vorhersagen zu testen, und solche Studien hätten verständlicherweise einen Bezug zur ursprünglichen Studie des Forschers.

In einem etwas anderen Sinn ist Interpretation notwendigerweise am Übergang von explorativer zu experimenteller Forschung beteiligt. Die Interpretation der Ergebnisse der ersten Kategorie von Forschungen führt häufig zu Hypothesen für die letztere.

Da für eine explorative Studie zunächst keine Hypothese aufgestellt wird, müssen die Ergebnisse oder Schlussfolgerungen einer solchen Studie als „post-factum“ interpretiert werden, was oft ein gefährliches Spiel mit gefährlichen Implikationen ist. Eine solche Interpretation beinhaltet die Suche nach einem Paten in der Art einer Theorie oder eines Prinzips, die die Ergebnisse der Studie annehmen (dh erklären) würde.

Diese Suche stellt sich oft als eine Übung des Forschers heraus, um seine Ergebnisse durch die Suche nach einer geeigneten Theorie für seine Ergebnisse zu rechtfertigen. Infolgedessen können widersprüchliche Schlussfolgerungen ihre "Paten" in verschiedenen Theorien finden.

Dieser Aspekt der Post-Factum-Interpretation, der Versuche umfasst, die Forschungsergebnisse zu rationalisieren, sollte bei seiner Fortschreibung klar berücksichtigt werden. Gelegentlich gibt es jedoch keine andere Alternative dazu.

Zweitens führt die Interpretation zur Festlegung von Erklärungskonzepten. Wie bereits erwähnt, beinhaltet die Interpretation der Ergebnisse das Bestreben, zu erklären, warum die Beobachtungen oder Ergebnisse so sind, wie sie sind. Bei dieser Aufgabe kommt der Theorie eine zentrale Bedeutung zu.

Es ist ein Sensibilisator und ein Leitfaden für die zugrunde liegenden Faktoren und Prozesse (erklärende Grundlagen) unter den Befunden. Unter den Beobachtungen des Forschers im Verlauf einer Studie liegen eine Reihe von Faktoren und Prozessen, die seine Beobachtungen der empirischen Welt erklären könnten. Theoretische Interpretation deckt diese Faktoren auf.

Aufgabe des Forschers ist es, die Beziehungen, die er im Verlauf seiner Studie beobachtet hat, zu erklären, indem er die zugrunde liegenden Prozesse aufzeigt, die ihm ein tieferes Verständnis dieser Beziehungen ermöglichen, und auf die Rolle bestimmter grundlegender Faktoren hinweisen, die im Problembereich seiner Studie wirken.

Die Interpretation hat also einen doppelten Zweck. Zum einen wird ein Verständnis der allgemeinen Faktoren vermittelt, die die beobachteten Beobachtungen im Verlauf einer Studie zu erklären scheinen, und zum anderen eine theoretische Konzeption, die als Orientierungshilfe für die weitere Forschung dienen kann.

Auf diese Weise kann die Wissenschaft die grundlegenden Prozesse, die den Teil der empirischen Welt, mit dem sich ein Forscher befasst, prägen, erfolgreicher lösen.

Die Interpretation ist so untrennbar mit der Analyse verknüpft, dass sie eher als besonderer Aspekt der Analyse und nicht als separate oder gesonderte Operation verstanden werden sollte. Zum Schluss sind wir versucht, Prof. C. Wright Mills zu zitieren, der das Wesentliche dessen, was alles in die Analyse (einschließlich Interpretation) von Daten involviert ist, dargelegt hat.

Mills sagt dazu: „Sie werden also entdecken und beschreiben, indem Sie Typen für die Bestellung einrichten, fokussieren und die Erfahrung organisieren, indem Sie die Elemente nach Namen unterscheiden. Diese Suche nach Ordnung führt dazu, dass Sie nach Mustern und Trends suchen und Beziehungen finden, die typisch und kausal sein können. Sie suchen kurz nach der Bedeutung dessen, worauf Sie gestoßen sind oder was als sichtbares Zeichen von etwas interpretiert werden kann, das mit dem zu tun scheint, was Sie zu verstehen versuchen. Sie werden es auf das Wesentliche reduzieren. dann werden Sie diese sorgfältig und systematisch miteinander in Beziehung setzen, um eine Art Arbeitsmodell zu bilden… “

"Aber unter allen Details werden Sie nach Indikatoren suchen, die auf die Hauptdrift hinweisen könnten, auf die zugrunde liegenden Formen und Tendenzen des Bereichs der Gesellschaft in seinem jeweiligen Zeitraum." Nach Abschluss einer Untersuchung wird die Aussage beendet Daraus ergeben sich eine Reihe neuer Fragen und Probleme.

Einige der neuen Fragen bilden die Grundlage für neue Forschungsvorhaben und die Formulierung neuer Theorien, die alte Theorien modifizieren oder ersetzen werden. Dies ist in der Tat, was Forschung bedeutet. Es dient dazu, neue und breitere Wege des intellektuellen Abenteuers zu eröffnen und simuliert die Suche nach mehr Wissen sowie mehr Weisheit bei der Nutzung.