Korrelation: Maße, Berechnung und Methode

Nachdem Sie diesen Artikel gelesen haben, werden Sie Folgendes lernen: 1. Korrelationsmaße 2. Korrelationsberechnung 3. Methoden.

Maße der Korrelation:

Karl Pearsons Korrelationskoeffizient (individuelle Beobachtungen) :

Um den Grad oder das Ausmaß der Korrelation und die Richtung der Korrelation zu berechnen, ist die Methode von Karl Pearson am zufriedenstellendsten.

Symbolisch ist seine Formulierung wie folgt:

wobei dx die Abweichung verschiedener Elemente der ersten Variablen von einem angenommenen Mittelwert und dy ist, bezeichnen die entsprechenden Abweichungen der zweiten Variablen vom angenommenen Mittelwert und N die Anzahl der Elementpaare.

Die Anwendung der Formel wird anhand folgender hypothetischer Daten erläutert:

Berechnung des Korrelationskoeffizienten in einer kontinuierlichen Serie:

Bei einer fortlaufenden Serie werden die Daten in eine Zwei-Wege-Frequenztabelle eingeteilt. Die Berechnung des Korrelationskoeffizienten in Bezug auf gruppierte Daten basiert auf der Annahme, dass angenommen wird, dass jeder Artikel, der in ein bestimmtes Klassenintervall fällt, genau in den Mittelwert dieser Klasse fällt.

Zur Veranschaulichung berechnen wir den Koeffizienten oder die Korrelation anhand folgender Daten:

Die Formel für die Berechnung des Korrelationskoeffizienten hat in diesem Fall folgende Form:

Die einzige Änderung in der obigen Formel gegenüber der früheren ist die Einführung von f, das für die Frequenz steht.

Wenn wir die Formel auf die Tabelle 18.50 anwenden, erhalten wir:

Rangdifferenz-Korrelationsmethode:

Wenn die direkte Messung des untersuchten Phänomens nicht möglich ist, z. B. für Eigenschaften wie Effizienz, Ehrlichkeit, Intelligenz usw., wird die Rangdifferenzmethode verwendet, um das Ausmaß der Korrelation herauszufinden.

Die Formel zur Berechnung der Rangkorrelation lautet:

Wenn R einen Koeffizienten der Rangkorrelation zwischen gepaarten Rängen bezeichnet, bezeichnet D die Unterschiede zwischen den gepaarten Rängen und N steht für die Anzahl der Paare.

Wir wollen anhand des folgenden Beispiels die Anwendung der obigen Formel veranschaulichen:

Berechnung des Korrelationskoeffizienten nach Rangdifferenzmethode :

(Wenn zwei oder mehr Artikel den gleichen Wert haben) :

Wenn es mehr als einen Artikel mit demselben Wert gibt, wird diesen Elementen ein gemeinsamer Rang zugewiesen. Dieser Rang ist der Durchschnitt der Ränge, die diese Elemente erreicht hätten, wenn sich ihre Werte leicht verändert hätten. Angenommen, die von fünf Schülern erzielten Noten sind 70, 66, 66, 65, 63.

Wenn diese Markierungen in absteigender Reihenfolge angeordnet sind, erhält die Zahl 70 den ersten Rang, 66 den zweiten Rang, 65 den dritten und 63 den vierten Rang. Da die beiden Schüler in diesem Beispiel eine gleiche Punktzahl haben, ist ihr Rang 2. Sie erhalten jetzt den durchschnittlichen Rang der Stufen, die diese Schüler erreicht hätten, wenn sie sich leicht voneinander unterschieden.

Unter dieser Annahme wäre der Rang beider Elemente 2 + 3/2. dh 2, 5 und der Rang des nächsten Punktes (65) wäre 4. Somit würde der Koeffizient der Rangkorrelation eine Korrektur erfordern, da die obige Formel [R = 1 6 & Dgr; D 2 / N (N 2 -1) auf dem Wert basiert Annahme, dass die Ränge verschiedener Elemente unterschiedlich sind.

Wenn es mehr als einen Artikel mit demselben Wert gibt, wird ein Korrekturfaktor von 1/12 (t 3 - t) zu dem Wert von zd 2 addiert, wobei t. steht für die Anzahl der Elemente, deren Rangstufen gemeinsam sind. Dieser Korrekturfaktor wird so oft addiert, wie die Anzahl der Elemente mit gemeinsamen Rängen auftritt.

Dies wird im folgenden Beispiel erklärt:

Datenanalyse und Interpretation

Beispiel:

Berechnen Sie den Rangkoeffizienten aus den folgenden Daten:

Im obigen Datensatz der X-Serie kommt die Nummer 60 dreimal vor. Der Rang aller drei Gegenstände ist 5, was dem Durchschnitt von 4, 5 und 6 entspricht. Die Stufen, die diese Gegenstände hätten sich gesichert, wenn sie leicht voneinander abweichen würden. Andere Nummern 68 in der X-Serie und 70 in der Y-Serie sind zweimal aufgetreten. Ihre Ränge sind jeweils 2, 5 und 1, 5.

Somit:

Die modifizierte Formel für die Koeffizient der Rangfolge wäre also:

Dabei steht n für die Anzahl der wiederholten Elemente. In Bezug auf das obige Beispiel lautet die Formel:

Eine Vorsicht bezüglich der Bedeutung und der Implikation eines Korrelationskoeffizienten ist durchaus angebracht. Der Korrelationskoeffizient, an sich eine sehr nützliche Schätzung der Beziehung, sollte nicht als absoluter Beweis für die Assoziation zwischen relevanten Variablen angesehen werden, da seine Interpretation in hohem Maße von der Größe der für die Studie ausgewählten Stichprobe abhängt, wie auch über die Art der erhobenen Daten.

Ein scheinbar hoher Korrelationskoeffizient von beispielsweise 0, 80 (+) kann sehr irreführend sein, wenn der Standardfehler, der auf die Abtastungsfluktuation hinweist, relativ groß ist, oder, um ein gegenteiliges Beispiel zu nennen, ein scheinbar niedriger Koeffizient von beispielsweise 0, 45 (+) vermuten lässt dass die Beziehung zwischen den Variablen gut ignoriert werden kann, aber auf der Realitätsebene kann diese Angabe wieder fehlerhaft sein, da der Korrelationskoeffizient für bestimmte Variablen typischerweise so niedrig sein kann, dass der obige Korrelationskoeffizient, dh 0, 45 im Vergleich, erforderlich wäre für die betreffende Datenklasse als relativ hoch einzustufen.

Die statistische Konvention schreibt jedoch vor, dass der Korrelationskoeffizient im Bereich von 1 bis 0, 7 (+) als Hinweis auf eine "hohe" oder signifikante Korrelation zu verstehen ist, nämlich einen Wert zwischen 0, 7 und 0, 4 (+) als wesentlich, einen Wert zwischen 0, 4 und 0, 2 (+) ) so niedrig und das unter 0, 2 (+) als vernachlässigbar.

Es muss auch betont werden, dass eine hohe Korrelation zwischen zwei Variablen an sich keinen Beweis dafür darstellt, dass sie zufällig miteinander verbunden sind. Eine signifikante Korrelation zwischen Variablen - z. B. zwischen Einkommen und Familiengröße oder der Größe einer Bildungseinrichtung und der Leistung der Studenten - lässt kaum einen Hinweis auf eine zufällige Beziehung zwischen ihnen zu.

Nehmen wir an, wir hätten herausgefunden, dass ein höheres Einkommen umgekehrt mit der Anzahl der Themen (Kinder) korreliert ist, dh je höher das Einkommen der Eltern, desto geringer die Anzahl der Probleme (der Korrelationskoeffizient ist beispielsweise 0, 8, was statistisch ziemlich hoch ist). Wir werden falsch und ungerechtfertigt sein, wenn wir sagen, dass ein höheres Einkommen die Ursache für eine geringere Fruchtbarkeit ist.

Zuvor wurde darauf hingewiesen, dass ein Rückschluss auf Kausalität nur dann gerechtfertigt ist, wenn drei Arten von Beweismitteln, begleitende Variation, zeitliche Reihenfolge und Eliminierung einer anderen Variablen als bestimmende Bedingung für den hypothetischen Effekt gesichert werden können.

Im vorliegenden Fall können möglicherweise folgende Schlussfolgerungen gezogen werden, wobei die ausgeprägte Korrelation zwischen den Variablen des Einkommens und der Anzahl der Kinder berücksichtigt wird:

(a) Einer könnte den anderen verursachen,

(b) Beide Variablen können die Auswirkungen einer anderen Ursache oder anderer Ursachen sein, und

(c) Die Assoziation kann ein Zufall sein. In einer experimentellen Situation lassen sich kausale Schlüsse natürlich sehr sicher feststellen.

Wir haben dies bei experimentellen Designs berücksichtigt. In den Sozialwissenschaften ist es sehr schwierig, Experimente durchzuführen, daher müssen die Studien nicht experimentell sein. Es wurden jedoch analytische Verfahren entwickelt, um in nichtexperimentellen Studien Rückschlüsse auf den Kausalzusammenhang zu ziehen.

Der Sozialforscher ist oft so sehr daran interessiert, den Assoziationsgrad zwischen Attributen abzuschätzen, dh zwischen qualitativ definierten Variablen; Zum Beispiel möchte er vielleicht den Grad der Assoziation zwischen dem sexuellen Attribut und der politischen Präferenz oder zwischen Geburt und Einstellung zu einem bestimmten sozialen Thema feststellen.

Grundsätzlich besteht das Problem der Assoziation in der Korrelation, aber die Assoziation zwischen Attributen kann nicht leicht einer mathematischen Behandlung zugänglich gemacht werden, wie dies bei den quantitativen Variablengrößen der Fall ist. Ein Maß für eine solche Assoziation zwischen Attributen ist der Koeffizient der relativen Vorhersagbarkeit (RP), bei dem es sich tatsächlich um einen qualitativen Korrelationskoeffizienten handelt.