Probengröße: Problem und Mathematik

Nachdem Sie diesen Artikel gelesen haben, lernen Sie das Problem und die Mathematik der Stichprobengröße kennen.

Das Problem der Probengröße:

Wir werden nun eines der schwierigsten Probleme im Zusammenhang mit der Probenahme betrachten, nämlich das Problem der Probengröße. „Wie groß sollte die Stichprobe in Bezug auf die Bevölkerungsgröße sein?“ „Wie groß sollte eine Stichprobe sein?“ Werden häufig von Forschungsstudenten gestellt. Die entscheidende Antwort auf diese Frage kann gegeben werden.

Dies liegt daran, dass die Frage der Größe nur dann beantwortet werden kann, wenn Elemente für die Grundgesamtheit so erfasst werden, dass jedes Element die gleiche Chance hat, in die Stichprobe aufgenommen zu werden, dh wenn wir das Wahrscheinlichkeitsdesign der Stichprobe verwenden.

Nur das Wahrscheinlichkeitsdesign ermöglicht die Erstellung repräsentativer Stichprobenpläne. Ermöglicht somit die Erstellung repräsentativer Stichprobenpläne.

Die Frage, „wie groß die Stichprobe sein sollte, um repräsentativ für die Population einer bestimmten Größe zu sein?“ Setzt daher das Wahrscheinlichkeits-Stichprobenverfahren voraus. Andernfalls kann die Repräsentativität der Stichprobe, so groß sie auch sein mag, nur eine Frage der Hoffnung und Vermutung sein.

Die allgemeinen Missverständnisse hinsichtlich der Größe der Probe sind, dass die Größe des Universums, aus dem die Probe gezogen wird, die Anzahl der Fälle bestimmt, die erforderlich sind, um eine angemessene oder repräsentative Probe dieses Universums zu erhalten.

Wir werden sofort darauf hinweisen, dass der Schwerpunkt nicht auf der Anzahl der Fälle im Universum, sondern auf deren Anzahl in der Stichprobe gelegt werden sollte.

Die Mathematik der Stichprobengröße:

Die grundlegende praktische Frage „Wie lässt sich die Stichprobengröße bestimmen, die die vom Forscher für eine gegebene Studie festgelegte gewünschte Genauigkeit liefert?“ Das Stichprobenproblem ist natürlich in allen Studien das gleiche, dh die Schätzung oder das Ergebnis etwas über die Bevölkerung auf der Grundlage der Kenntnis von etwas über die Stichprobe vorherzusagen.

Der Forscher muss wissen, welche Art von Statistiken zu der Stichprobe für eine solche Schätzung den Zweck erfüllen, z. B. Prozentsätze, Durchschnittswerte, Standardabweichung usw. Dies ist wichtig, da verschiedene Arten von Statistiken nützlich sind, abhängig von den gewünschten Genauigkeitsgraden der Stichprobenergebnisse, die wiederum durch unterschiedliche Stichprobengrößen erzielt werden.

Durchschnittswerte und Prozentsätze sind die am häufigsten gewünschten Statistiken. Daher werden wir uns speziell mit der Frage der Stichprobengrößen befassen, die den gewünschten Genauigkeitsgraden in Bezug auf Durchschnittswerte und Prozentsätze entsprechen.

Da die vom Forscher gezogene Probe nur eine der vielen möglichen Proben des Universums ist, die er möglicherweise ausgewählt hat, muss er wissen, wie viel Vertrauen er auf die Probe als Repräsentant des "Universums" setzen kann, auf das er sich stützt möchte etwas wissen oder in Bezug auf das er verallgemeinern möchte.

Er muss wissen, wie groß die Probe sein sollte, um eine zufriedenstellende Genauigkeit zu erreichen. Diese Berechnung ist durch Rückgriff auf die Mathematik möglich, da bei der Zufallsstichprobe (Wahrscheinlichkeitsentwurfsentwurf), wenn jeder Gegenstand im Universum eine vorgebbare Eintrittswahrscheinlichkeit in der Stichprobe hat, die Genauigkeit der Vorhersage oder Schätzung mit der Quadratwurzel der Anzahl der Gegenstände zusammenhängt in der probe.

Bevor mit der Berechnung der erforderlichen Stichprobengröße für eine bestimmte Studie begonnen wird, müssen in der Praxis einige vorläufige Informationen über die Bevölkerung oder das Universum sichergestellt werden.

Wenn der Forscher beabsichtigt, die Stichprobe zu verwenden, um das durchschnittliche Maß einer bestimmten Eigenschaft im Universum abzuschätzen, muss er eine vorläufige Schätzung der Standardabweichung (Streuung) in der Verteilung der Werte der Elemente im Universum in Bezug haben auf das gegebene Merkmal.

Der Forscher, der den Wertebereich (die Spanne) in Bezug auf ein bestimmtes Merkmal im Universum kennt, kann eine vorläufige Schätzung der Standardabweichung erhalten, indem er diesen Bereich durch 6 dividiert, da die Standardabweichung des (endlichen) Universums möglich ist für alle praktischen Zwecke wird angenommen, dass sie etwa 1/6 der gesamten Variationsbreite beträgt.

Mit anderen Worten kann der Dispersionsbereich einer Verteilung so verstanden werden, dass er 6 Standardabweichungseinheiten umfasst. Die vorläufigen Informationen über das Universum können durch eine Pilotstudie, Ergebnisse früherer Erhebungen, aus von statistischen Ämtern veröffentlichten Berichten, durch Abrechnung von Experten auf diesem Gebiet usw. erhalten werden.

Der Forscher muss vor der Berechnung der Stichprobengröße den erwarteten Genauigkeitsgrad der Schätzungen bestimmen. Diese Erwartung basiert im Wesentlichen auf dem Zweck der Studie.

Mit anderen Worten muss der Forscher entscheiden:

(a) Wie viele Fehler in der Schätzung, die von der Stichprobe abgeleitet werden sollen (im Vergleich zum wahren Wert, dh zum Wert des "Universums"), toleriert werden kann (als Fehlergrenze oder Genauigkeitsgrenze bezeichnet) und

(b) Mit wie viel Gewissheit kann man sagen, dass die Schätzung in diesen Fehlerbereich (genannt Vertrauensgrad oder Wahrscheinlichkeit) fällt.

Es wird jedoch angebracht sein, diese gegenwärtig genauer zu betrachten:

(a) Fehlergrenze oder Genauigkeitsgrenze:

Die grundlegende Frage hier lautet: "Inwieweit kann der Prozentsatz oder Durchschnitt aus der Studie der Stichprobe wahrscheinlich vom wahren Mittelwert (der Bevölkerung) abweichen und möglicherweise noch toleriert werden?" Der Forscher toleriert möglicherweise einen Fehler von 5% oder verlangt eine Genauigkeit von 2%.

Es hängt alles davon ab, wie genau oder genau er bestimmte Fakten wissen möchte. Nehmen wir an, der Forscher möchte im Voraus wissen, welcher der beiden Kandidaten, die die Wahl anfechten, den Sitz gewinnen wird. Wenn die Abstimmung nahe ist, kann es sich der Forscher leisten, nur einen kleineren Fehler zu tolerieren, wenn er praktisch sicher ist.

Er kann zum Beispiel den zulässigen Fehler auf weniger als 2% setzen. Auf der anderen Seite kann der Forscher, wenn die Wahl einseitig zu sein scheint und ziemlich zu Gunsten eines bestimmten Kandidaten tendiert, die Ergebnisse sogar mit einem viel größeren Fehler in der Schätzung vorhersagen.

Wenn die Stichprobenumfrage ergab, dass 60% der Stimmen sich für einen Kandidaten entscheiden würden, könnte ein Fehler von bis zu 9% toleriert werden. In diesem Fall wäre der wahre Wert selbst dann, wenn die Stichprobe die ungünstigste Stichprobe gezogen hätte, die um 9% vom wahren Wert abweicht, immer noch 51%, dh 1% über dem kritischen Punkt von 50%.

Sowohl der geschätzte Wert von 60% als auch der wahre Wert von 51% wären somit über dem kritischen Punkt (dh 50%) und die Vorhersage wäre zuverlässig.

(b) Wahrscheinlichkeit oder Vertrauensgrad:

Neben der Genauigkeitsgrenze muss der Forscher auch in Bezug auf seine Studie entscheiden, wie viel Vertrauen er in die Stichprobenschätzungen setzen möchte, die der tatsächlichen Schätzung so nahe kommen, dass sie innerhalb der Toleranz- oder Genauigkeitsgrenzen liegen, die von festgelegt werden ihn für das Studium.

In bestimmten Situationen möchte er möglicherweise äußerst sicher sein, dass seine Schätzungen (basierend auf der Stichprobe) weniger als 51% des wahren Werts betragen, während er in bestimmten anderen Situationen mit einem etwas geringeren Maß an Sicherheit zufrieden sein kann.

In der sozialwissenschaftlichen Forschung sind zwei Wahrscheinlichkeitsgrade oder Vertrauensgrade sehr bekannt und werden häufig verwendet.

Eine davon ist 0, 95 Wahrscheinlichkeit, dh es gibt 95 Chancen von 100, dass die Stichprobenschätzung die Toleranz- oder Fehlergrenzen nicht überschreitet, und die zweite Stufe ist die 0, 99-Wahrscheinlichkeit, dh die Wahrscheinlichkeit Es ist wahrscheinlich, dass bei 99 von 100 Chancen die Stichprobenschätzung die angestrebte Fehlerquote nicht überschreitet.

Der Vertrauensgrad kann sogar auf 0, 999 festgelegt werden, das heißt, die Stichprobenschätzung würde nicht über den Toleranzbereich von 999 Chancen von 1000 hinaus vom wahren Wert (des Universums) abweichen. Für bestimmte Zwecke kann der Forscher auf niedrig und auf 1 setzen Setzen Sie das Wahrscheinlichkeitsniveau auf 0, 67 (dh 2 von 3).

Die Wahrscheinlichkeit, dass eine bestimmte Probe für eine Studie gezogen wird, wird zu einer Schätzung des Universums führen, die sich innerhalb der Fehlergrenze befindet, und hängt von der Variation zwischen den Proben ab, die aus dem Universum gezogen werden können. Wenn die von den Stichproben gesicherten Werte dazu neigen, erheblich von dem wahren Wert abzuweichen, sind die Chancen, dass ein bestimmter Abtastwert innerhalb der zulässigen Fehlergrenzen bleibt, gering.

Der Standardfehler ist das Maß, das uns sagt, wie groß die Wahrscheinlichkeit ist, dass eine Probe innerhalb der zulässigen Grenzen bleibt. Es ist ein Maß für die Variation der Stichprobenschätzung, die bei der Stichprobenauswahl erwartet werden könnte. Zufällige Stichproben tendieren dazu, den Gesetzen der Wahrscheinlichkeit zu folgen, und die Stichprobenschätzungen tendieren dazu, sich um den wahren Wert des Universums zusammenzusetzen.

Diese Schätzungen können durch eine glockenförmige oder normale Kurve dargestellt werden. Der Mittelpunkt dieser Kurve stellt den wahren Wert (des Universums) dar und die maximale Abweichung oder Abweichung einer Stichprobenschätzung von diesem wahren Wert beträgt etwa das Dreifache des Standardfehlers.

Der Standardfehler beträgt somit etwa 1/6 des gesamten Bereichs der Stichprobenvariation. Für alle praktischen Zwecke wird der Standardfehler jedoch als 1/4 des Variationsbereichs angenommen, da die extremen Variationen sehr selten auftreten.

Wahrscheinlichkeitstabellen zeigen, dass erwartet werden kann, dass 95 von 100 Stichprobenschätzungen innerhalb der Grenzwerte von +2 und -2 liegen. Das heißt, wenn wir unser Vertrauensniveau oder die Wahrscheinlichkeit auf 0, 95 festgelegt haben, besteht unser Problem darin, eine Zufallsstichprobe mit einem Standardfehler zu zeichnen, der etwa ½ (die Hälfte) unserer Fehlerquote beträgt.

Für eine höhere Wahrscheinlichkeit müssten wir eine Probe mit einem Standardfehler zeichnen, d. H. Einem noch kleineren Bruchteil der Fehlerspanne.

Es ist zu beachten, dass der Standardfehler mit zunehmender Stichprobe kleiner wird (höhere Genauigkeit). Um die Genauigkeit zu verdoppeln, muss die Stichprobengröße mit 4 multipliziert werden, dh um das Vierfache erhöht werden; Um es zu verdreifachen, muss die Stichprobengröße mit 9 multipliziert werden. um es zu vervierfachen, mit 16 und so weiter.

Dies bedeutet nur, dass die Genauigkeit mit der Quadratwurzel der Anzahl der Fälle in der Stichprobe zunimmt. Statistiker haben Tabellen vorbereitet, die die Wahrscheinlichkeit zeigen, dass Stichprobenschätzungen innerhalb der verschiedenen Standardfehlergrenzen liegen.

Diese Grenzwerte werden im Allgemeinen als + (Plus) und - (Minus) angegeben. Solche Tabellen zeigen zum Beispiel leicht, dass 95% der Stichprobenschätzungen innerhalb der Grenze von +1, 96 und -1, 96 Standardfehlern liegen, etwa 68% der Schätzungen innerhalb der Grenzen von + 1 und -1 Standardfehlern und 99% der Die Schätzungen liegen im Bereich von +2, 57 und -2, 57 Standardfehlern und so weiter.

Unter vollständiger Berücksichtigung von (1) der Fehlerspanne und (2) des Wahrscheinlichkeits- oder Vertrauensniveaus kann der Forscher mit der Berechnung einer gewünschten Stichprobengröße fortfahren. Mildred Parten hat die folgende Formel zur Berechnung der Stichprobengröße angegeben, wenn die zu schätzende Statistik der Prozentsatz ist. Dies ist offensichtlich eine transponierte Variante einer Standardfehlerformel.

Probengröße = PC (100-PC) Z 2 / T 2

In der obigen Formel bedeutet PC die vorläufige Schätzung des Prozentsatzes (aus dem Universum).

Z bedeutet die Anzahl von Standardfehlereinheiten, von denen gefunden wird (aus der normalen Wahrscheinlichkeitstabelle), dass sie dem erforderlichen Wahrscheinlichkeitsniveau entsprechen.

T bezeichnet die Toleranzspanne, die toleriert werden kann (5% oder 2%).

Parten hat die folgende Formel zur Berechnung der Stichprobengröße angegeben, um den Mittelwert des Universums in Bezug auf ein bestimmtes Merkmal bei einem bestimmten Vertrauensniveau vorherzusagen oder zu schätzen und auf eine bestimmte Marge oder einen bestimmten Fehler oder eine bestimmte Toleranzgrenze abzustimmen.

Probengröße = (δ + Z / T) 2

Dabei steht 8 für die vorläufige Schätzung der Standardabweichung des Universums.

Z steht für die Anzahl der Standardfehlereinheiten, die der erforderlichen Wahrscheinlichkeit oder dem Vertrauensniveau entsprechen.

Nehmen wir ein konkretes Beispiel und erarbeiten die Probengröße. Angenommen, wir möchten das durchschnittliche Jahreseinkommen von Familien schätzen, die in einer bestimmten Mittelschicht einer Stadt leben.

Nehmen wir an, wir haben unsere Fehlerquote auf Rs.100 / - gesetzt, dh wir werden die Stichprobenschätzung innerhalb von plus oder minus 100 vom wahren Durchschnitt der Bevölkerung in Bezug auf das Einkommen tolerieren. Nehmen wir an, wir haben die Wahrscheinlichkeit oder das Konfidenzniveau auf 0, 95 gesetzt.

Angenommen, aus einer vor einigen Jahren durchgeführten Umfrage schätzen wir die Standardabweichung für das Jahreseinkommen der Bevölkerung (Ortschaft) auf Rs.500 / -. Der Wert von Z, dh die Standardfehlereinheiten, die der Wahrscheinlichkeit von 0, 95 entsprechen, beträgt 1, 96.

Wir setzen diese Werte in die oben angegebene Formel ein

Größe von einfach = (500 × 1, 96 / 100) 2

= (9, 8) 2

= 95

Das bedeutet, dass eine Zufallsstichprobe von 95 Fällen (Familien, die als Stichprobeneinheiten dienen) eine Schätzung des Mittelwerts des gegebenen "Universums" innerhalb der festgelegten Fehlergrenze und bei der gewünschten Vertrauensstufe bzw. Wahrscheinlichkeit liefern sollte. von Rs. 100 / - und 0, 95.

Wenn wir die Fehlerquote verschärfen und auf Rs setzen. 50 / - ist die Anzahl der Fälle in der Stichprobe, dh die erforderliche Größe der Stichprobe ist viermal so groß (dh 380), wie es für die frühere Fehlergrenze (Rs. 100 / -) erforderlich ist.

Wenn ein anderer Ort durch eine größere Homogenität in Bezug auf das Einkommen gekennzeichnet ist und die Standardabweichung in Bezug auf das Einkommen nur 100 beträgt, ist die Stichprobe für die obige Fehlerquote wesentlich geringer.

Mit anderen Worten, die Verwendung der Formel veranschaulicht die Lektion, nämlich, je größer die Homogenität, desto geringer die benötigte Probe und die angestrebte Genauigkeit, desto größer die benötigte Probengröße.

Die wiederholte Verwendung solcher Begriffe wie der Fehlergrenze und Vertrauensgrad sowie andere numerische Ausdrücke von Wahrscheinlichkeiten und Stichprobengrößen können den Eindruck erwecken, dass eine anhand einer Formel berechnete Stichprobengröße die gewünschte Genauigkeit garantiert.

Es sollte jedoch daran erinnert werden, dass die in den statistischen Wahrscheinlichkeitstabellen gezeigten Beziehungen normale Erwartungen in einer idealen Stichprobe darstellen. Da die tatsächliche Probenahme jedoch selten ideal ist, kann nicht erwartet werden, dass die in Tabellen ausgedrückten Beziehungen gelten.

Die allgemeine Schwierigkeit und Seltenheit der idealen Probenahme sollte verständlicherweise einen Skeptiker hinsichtlich der Ergebnisse machen, die genau den Erwartungen entsprechen.

Dies bedeutet jedoch nicht, dass der Forscher nicht die exakte Stichprobengröße verwenden sollte, die auf der Grundlage der Wahrscheinlichkeitsformel berechnet wurde. Tatsächlich ist es genau das, was er tun sollte, weil es seine beste Wette ist. Er sollte jedoch nicht auf diese exakte Größe bestehen, wenn dies aus praktischen Gründen unzweckmäßig ist.

Ein wesentlich anderer Ansatz für das Problem der Bestimmung der gewünschten Probengröße ist der "Stabilitätstest". Dies umfasst das Sammeln von Daten für relativ kleine Teilstichproben und ein laufendes Protokoll der Verteilung der Renditen.

Wenn nach einem bestimmten Punkt die Zugabe weiterer Unterproben die Ergebnisse nicht wesentlich ändert, kann der Forscher davon ausgehen, dass die bisher gezogene Gesamtprobe ausreichend groß geworden ist. Dieses Verfahren kann jedoch als Zeitverschwendung angesehen werden, da es für einen Forscher, der an einer Reihe separater Erhebungen teilnimmt, die über einen beträchtlichen Zeitraum verteilt sind.

Es wurde argumentiert, dass dieses Verfahren insofern unwirtschaftlich ist, als mehr Zeitpläne gesammelt werden, als tatsächlich benötigt werden, da die Verjüngung bis zur ungefähren Stabilität nicht mit Sicherheit bestimmt werden kann, bis die Kurve eine Zeitlang ihren Pegel gehalten hat.

Dies scheint jedoch keine ernsthafte Einschränkung zu sein, wenn man es mit der konservativen Praxis vieler seriöser Studien vergleicht, in denen mehr als die notwendige / minimale Anzahl von Elementen als Stichprobe gesammelt wird.

Der Hauptvorteil dieser Art von Stabilitätstest besteht darin, dass anstelle von Berechnungen, die auf vorläufigen Informationen basieren, die Gesamtgröße der Stichprobengröße einfach erhöht wird. Die empirische Prüfung, die Renditen zu beobachten und zu stoppen, wenn sie sich stabilisieren, scheint unkompliziert und überzeugend.

Die Hauptgefahr dieses Verfahrens besteht in der Tatsache, dass sich die aufeinanderfolgenden Teilproben wahrscheinlich nicht über das Universum ausbreiten. Die Ergebnisse können sich stabilisieren, auch wenn sie die Bevölkerung nicht repräsentieren.

Je weniger repräsentativ die Unterprobe ist, desto wahrscheinlicher ist es, dass mehr Fälle hinzugefügt werden, um dasselbe Ergebnis zu erzielen und den Anschein einer Stabilisierung aufzuwerfen. Wenn die Unterprobe kein Querschnitt des Universums ist, wird es keine überempfindliche Probe geben, auf der die sich nähernde Stabilisierung beobachtet werden kann.

Die Grundvoraussetzung für dieses Verfahren ist, dass eine wachsende repräsentative Probe zur Beobachtung zur Verfügung stehen muss. Die Kosten und die Schwierigkeit des Sammelns aufeinanderfolgender Teilproben, die über das Universum verteilt sind, sind die Hauptgründe, warum dies wahrscheinlich nicht repräsentativ ist.

Der empirische Stabilitätstest kann jedoch sehr effektiv sein, wenn die Unterproben ordnungsgemäß gezogen und gesammelt werden. Die Methode eignet sich am besten für Interviewbefragungen, die sich auf relativ kleine Gebiete oder eine Gemeinde wie eine Stadt oder eine Stadt beziehen, da es dann nicht so schwierig oder teuer ist, jede Teilstichprobe zu einer Zufallsstichprobe der Bevölkerung zu machen.

Eine verfeinerte Form der empirischen Kontrolle im Vergleich zum Stabilitätstest ist eine relativ junge Entwicklung, die als Sequenzanalyse bezeichnet wird. Das allgemeine Verfahren, das hier involviert ist, besteht darin, die Probe weiter zu addieren und gleichzeitig die Probe auf ihre Signifikanz zu testen, bis sich die minimale Probe angesammelt hat, die das erforderliche Signifikanzniveau liefert.