Anpassungskriterien in statistischen Innovationstechnologien. Zustimmungskriterien. Testen der Hypothese der Gleichverteilung

Es wurde in Kap. 5 Hier wenden wir uns an diese Methode zu Investitionsprojekten. Auf die Grenzen und Einsatzbedingungen dieser Methode wird in Kap. 15, wo wir den Anpassungstest für riskante Investitionen betrachten. Unser Zweck hier ist nur zu zeigen, wie das Risiko für Kombinationen riskanter Anlagen gemessen wird, vorausgesetzt, dass ein solches Kriterium benötigt wird.

Die nächste Stufe ist mit der Verwendung höherer Ableitungen (Taylor-Formel) verbunden, und diese Stufe endet mit einer Überprüfung der Methode als Ganzes.Als nächstes einige Fragen zu den numerischen Eigenschaften von Funktionen - numerische Methoden (Anwendung der Differentialrechnung zur Annäherung Berechnungen) werden berücksichtigt. In diesem Stadium wird der Abweichungsfehler von unterbrochenen Linien von Sekanten, einer unterbrochenen Linie von einer Tangente, stückweisen Kurven von Taylor-Parabeln höheren Grades von dieser Funktion in Abhängigkeit von ihren differentiellen Eigenschaften ermittelt und der Fehler verglichen. Der Einfachheit halber betrachten wir den Fall äquidistanter Knoten. Damit sind die Grenzen der Anwendbarkeit der Methode der Differentialrechnung festgelegt. Als Weiterentwicklung dieser Stufe können auch andere Näherungsmodelle in Betracht gezogen werden, die sich beispielsweise an folgendem Schema orientieren wollen

In dieser Analyse haben wir bei der Beurteilung des Übereinstimmungsgrades zwischen der empirischen und der theoretischen Verteilung das Pearson-Kriterium der Anpassungsgüte von V. I. Romanovsky verwendet

Die Ergebnisse der Berechnungen der Parameter der Verteilungskurven sind in der Tabelle angegeben. 10. Geschätzte Häufigkeiten wurden nach den Formeln 10, 11, 12 berechnet. Eine objektive Beurteilung des Grades der Übereinstimmung von empirischen und theoretischen Häufigkeiten ist das Kriterium der Anpassungsgüte (in dieser Studie der Anpassungstest von V. I. Romanovsky wurde verwendet). Der Test zeigte, dass die untersuchten empirischen Intervallreihen der Verteilung der Arbeitszeit der Arbeitsobjekte in den Übergangsrückständen recht genau durch die gefundenen Kurven der Dichtefunktion p (x) beschrieben werden.

Anzahl der Einheiten in der Stichprobe, N Intervallgröße, N Index der Reihenschiefe, ch Excess Kurtosis Index, Ex Streuung, a Mittelwert, X Kriterium der Anpassungsgüte, K

Die resultierende empirische Verteilung wird durch eine kontinuierliche analytische Funktion angenähert, dh das Verteilungsgesetz der Zufallsvariablen wird identifiziert. Auch die Verwendung von Kriterien der Anpassungsgüte bei der Ermittlung des Verteilungsrechts wird in Betracht gezogen.

Verwendung von Kriterien der Anpassungsgüte bei der Identifizierung eines Verteilungsgesetzes zufällige Variable.  

Bei Anwendung des Pearson-Anpassungstests ist es notwendig, den Wert zu berechnen

Hervorzuheben ist, dass bei der Überprüfung des Modells nach dem Kriterium der Anpassungsgüte nur eine negative Antwort sicher ist, also die Abweichung des Modells.

Eine positive Antwort bedeutet lediglich, dass das Modell den empirischen Daten nicht widerspricht. Das bedeutet keineswegs, dass dieses Modell die Daten tatsächlich beschreibt, dass dies das beste Modell ist, dass es unmöglich ist, ein anderes Modell zur Beschreibung der Daten zu wählen usw. Tatsächlich ist eine positive Antwort bei der Überprüfung nach dem Kriterium der Übereinstimmung zu verstehen als „vielleicht werden diese Daten durch dieses und jenes Modell beschrieben“, und nicht mehr.

Das resultierende Histogramm wird mit dem Pearson-Anpassungstest auf Übereinstimmung mit der Normalverteilung überprüft.

Bei vielen realen Problemen besteht die Hauptschwierigkeit darin, dass das neuronale Netz Ursache-Wirkungs-Beziehungen nicht eindeutig darstellen kann und nach dem Black-Box-Prinzip eine Art Lösung liefert. Gleichzeitig werden in der Finanzanalyse seit langem speziell ausgewählte Kombinationen verschiedener Indikatoren zur Beurteilung der Unternehmenslage verwendet und die Qualität des Modells anhand der Übereinstimmungskriterien beurteilt, ohne die Struktur des Modells zu berücksichtigen . Im Wesentlichen kommt es darauf an, einen Indikator (oder eine Kombination von Indikatoren) zu wählen, der der Entscheidungsregel entspricht, die es Ihnen ermöglicht, ein bestimmtes Unternehmen in eine bestimmte Gruppe (lebensfähig, schnell wachsend, hochprofitabel) aufzunehmen (oder nicht aufzunehmen).

Richten Sie gemäß Aufgabe 21 die Verteilung der Bevölkerung nach der Größe des Pro-Kopf-Bareinkommens entlang der Normalverteilungskurve aus. Zeichnen Sie die empirischen und theoretischen Verteilungen. Bewerten Sie die Nähe der empirischen und theoretischen Verteilungen mithilfe von Anpassungstests [Pearson (Chi-Quadrat), Kolmogorov oder andere]

Unabhängig von der Art des Goodness-of-Fit-Tests, der im Pro-

Für S.p.g. unterschiedliche Kriterien verwendet werden. Insbesondere bei der Überprüfung der Übereinstimmung zwischen der Stichprobe und hypothetischen Verteilungen wird ein Anpassungstest verwendet, beispielsweise der sog. Chi-Quadrat-Test nach Pearson. Siehe auch Fehler.

Indem wir M[H(x) und D in Formel (2.15) durch Gleichungen (2.3) ersetzen, leiten wir die endgültige Formel für das Informationskriterium der Anpassungsgüte her

Im Tisch. 2.3 zeigt die Werte der Entropieparameter, die in technischen Anwendungen von Verteilungsgesetzen am häufigsten anzutreffen sind. Die Tabelle der Entropieparameter verschiedener Verteilungsgesetze ermöglicht die gleichzeitige Prüfung mehrerer Hypothesen bei Anwendung des Informationsübereinstimmungskriteriums, was mit bestehenden Methoden ohne zusätzliche Berechnungen nicht möglich ist.

Da der Anpassungstest nach Pearson am gebräuchlichsten ist, vergleichen wir das Informationskriterium J mit dem %2-Kriterium.

Beim Nivellieren der empirischen Verteilung wird die Nullhypothese akzeptiert, wenn bei Anwendung des informationellen Anpassungstests

GOST 8.532-85 schlägt vor, die Kriterien für die Anpassungsgüte mindestens bei einem Signifikanzniveau von 10 % bei u > 50 und bei 15 Normalverteilung zu verwenden (unter Verwendung des Wilcoxon-Tests für Paarunterschiede - um die Symmetrie der Verteilung zu überprüfen). Array von Zertifizierungsergebnissen zu einer der Verteilungsklassen zu normal, symmetrisch, asymmetrisch. Für jede Klasse von Verteilungen werden die Werte der wichtigsten messtechnischen Eigenschaften von RS auf verschiedene Weise bestimmt.

Es wurden verschiedene Kriterien für die Güte der Anpassung vorgeschlagen, um den Grad der Übereinstimmung zwischen der empirischen und der theoretischen Verteilung zu bestimmen. Somit ist das Übereinstimmungskriterium von Pearson, Romanovsky, Kolmogorov, Yastremsky bekannt. Das Pearson'sche Übereinstimmungskriterium reduziert sich auf die Berechnung der Pearson-Verteilung der Wahrscheinlichkeit, den gegebenen Wert n 2 P = x2 zu erreichen. In diesem Fall wird x2 nach der Formel (9.3) berechnet.

Da es keine vorgefertigten Schemata für die optimale Modellauswahl gibt, muss der Forscher verschiedene statistische Gütetests ausprobieren. So schätzten Utans und Moody das mit unterschiedlichen Netzwerkarchitekturen erhaltene Vorhersagerisiko ab, und Kayama ua fanden die Gesamtzahl doppelter Elemente in der verborgenen Schicht. Wir haben einfach die Werte der Quadratwurzel des mittleren quadratischen Fehlers (RMSE) auf einem Testsatz verglichen, der aus 60 Beobachtungen besteht, die sich auf die letzten 5 Jahre des Beobachtungsintervalls (1981-85) beziehen. Für die weitere Arbeit wurde die Netzwerkarchitektur genommen, die den niedrigsten RMSE ergab.

Diese Anpassungskriterien ermöglichen es uns, die Hypothesen zu testen

Bei der Abschätzung der Entropie des n.r.v. es stellt sich die Frage, wie viele Intervalle für die Partitionierung der experimentellen Daten gewählt werden müssen. Diese Aufgabe ähnelt den typischen Aufgaben der mathematischen Statistik: Bestimmung des Verteilungsgesetzes, Berechnung von Schätzungen empirischer Verteilungen, Berechnung von Anpassungskriterien. A. Hald hat gezeigt, dass es eine optimale Anzahl von Gruppierungsintervallen gibt, wenn die schrittweise Hüllkurve des Histogramms der glatten Verteilungskurve der Allgemeinbevölkerung am nächsten kommt. Es ist möglich, eine Reihe von Kriterien für eine solche Nähe zu formulieren, indem Indikatoren in Form von Kurtosis, dem %2-Kriterium usw. verwendet werden. Verschiedene Kriterien geben leicht unterschiedliche Werte für die optimale Anzahl der Gruppierungsintervalle an. Die bloße Existenz eines Optimums hängt jedoch nicht von der Wahl des Näherungskriteriums ab, da sich einige von ihnen als leer oder unterfüllt herausstellen, wenn Daten in zu viele kleine Intervalle gruppiert werden. Das Histogramm unterscheidet sich von einer glatten Verteilungskurve aufgrund seiner Zackigkeit mit vielen Spitzen und Einbrüchen.

Storm R. empfiehlt zur Bestimmung der optimalen Intervallanzahl die Brooks- und Carruther-Formel k = 5 lg p. Das Paper empfiehlt das Verhältnis k = 4p. Das Papier enthält eine Tabelle, nach der die Anzahl der Intervalle von 7 bis 22 zugeordnet wird, je nach Stichprobengröße von 40 bis 10.000. 2.2, zeigt die Nähe der Empfehlungen bei n - 100, mit ihrer nachfolgenden zunehmenden Diskrepanz mit zunehmender Stichprobengröße. Eine eigene Gruppe bilden Empfehlungen zur Anwendung des %2-Anpassungskriteriums. Die Anwendung des %2-Kriteriums auf Intervalle konstanter Länge ist ineffizient. Die Prämisse aller Arbeiten zur Wirksamkeit des x2-Kriteriums ist die Berücksichtigung von Intervallen mit gleicher Wahrscheinlichkeit. Diese Empfehlungen werden jedoch aufgrund der Komplexität ihrer Anwendung in der Praxis nicht angewendet. Angesichts der Heterogenität der oben genannten Empfehlungen bedarf es einer gesonderten Untersuchung des Einflusses der Anzahl der Intervalle bei der Verwendung von Informationsmethoden zur Analyse technologischer Prozesse.

Sie können 6 oder 7 Intervalle auswählen. Wir bestimmen die Streuzone der Abmessungen R. Wir setzen den Maximalwert der Größe x = 0,126 und den Minimalwert xm a = - 0,149, den Bereich R = dgmax - xmin = 0,275 mm. Wir wählen 7 Intervalle aus und bestimmen deren Teilungswert C = RI k 0,04 mm. Lassen Sie uns die Anzahl der Größenabweichungen berechnen, die in das entsprechende Intervall fallen. Die Ergebnisse (Tabelle 2.5) erlauben es uns, eine Hypothese über die Verteilung der untersuchten Fehler nach dem Gaußschen Gesetz aufzustellen. Um die Hypothese zu testen, ist es notwendig, die Daten vorzubereiten, die Teil der sind

Kriterien zur Prüfung auf Zufälligkeit und Bewertung von Ausreißern Literatur Einleitung In der Praxis der statistischen Analyse experimenteller Daten geht es nicht um die Berechnung bestimmter Statistiken, sondern um die Beantwortung solcher Fragen. Dementsprechend wurden viele Kriterien entwickelt, um die aufgestellten statistischen Hypothesen zu testen. Alle Kriterien zum Testen statistischer Hypothesen werden in zwei große Gruppen unterteilt: parametrisch und nichtparametrisch.


Teilen Sie Ihre Arbeit in sozialen Netzwerken

Wenn diese Arbeit nicht zu Ihnen passt, finden Sie unten auf der Seite eine Liste ähnlicher Arbeiten. Sie können auch die Suchschaltfläche verwenden


Prüfung

Einwilligungskriterien verwenden

Einführung

Literatur

Einführung

In der Praxis der statistischen Analyse experimenteller Daten ist das Hauptinteresse nicht die Berechnung bestimmter Statistiken, sondern Antworten auf Fragen dieser Art. Ist die Grundgesamtheit wirklich eine bestimmte Zahl? Unterscheidet sich der Korrelationskoeffizient signifikant von Null? Sind die Varianzen der beiden Stichproben gleich? Und solche Fragen können viele sein, je nach konkreter Forschungsaufgabe. Dementsprechend wurden viele Kriterien entwickelt, um die aufgestellten statistischen Hypothesen zu testen. Wir werden einige der häufigsten von ihnen betrachten. Grundsätzlich beziehen sie sich auf die Mittelwerte, Varianzen, Korrelationskoeffizienten und Populationsverteilungen.

Alle Kriterien zum Testen statistischer Hypothesen werden in zwei große Gruppen unterteilt: parametrisch und nichtparametrisch. Parametrische Tests basieren auf der Annahme, dass die Stichprobendaten aus einer Grundgesamtheit mit bekannter Verteilung stammen, und die Hauptaufgabe besteht darin, die Parameter dieser Verteilung zu schätzen. Für nichtparametrische Tests sind keine Annahmen über die Art der Verteilung erforderlich, außer der Annahme, dass sie stetig ist.

Betrachten wir zunächst parametrische Kriterien. Die Testsequenz umfasst das Formulieren einer Nullhypothese und einer alternativen Hypothese, das Formulieren der zu treffenden Annahmen, das Bestimmen der im Test verwendeten Stichprobenstatistik und das Erzeugen einer Stichprobenverteilung der zu testenden Statistik, das Bestimmen kritischer Bereiche für das ausgewählte Kriterium, und Konstruieren eines Konfidenzintervalls für die Stichprobenstatistik.

1 Anpassungskriterien für Mittel

Die zu testende Hypothese sei der Parameter der Grundgesamtheit. Die Notwendigkeit einer solchen Überprüfung kann beispielsweise in der folgenden Situation auftreten. Nehmen wir an, dass auf der Grundlage umfangreicher Untersuchungen der Durchmesser der Schale einer fossilen Molluske in Sedimenten von einem festen Standort aus bestimmt wurde. Lassen Sie uns auch eine bestimmte Anzahl von Muscheln zur Verfügung haben, die an einem anderen Ort gefunden wurden, und wir gehen davon aus, dass ein bestimmter Ort den Durchmesser der Muschel nicht beeinflusst, d.h. dass der Durchschnittswert des Schalendurchmessers für die gesamte Population von Mollusken, die einst an einem neuen Ort lebten, gleich dem bekannten Wert ist, der früher bei der Untersuchung dieser Molluskenart im ersten Lebensraum erhalten wurde.

Wenn dieser bekannte Wert gleich ist, dann werden die Nullhypothese und die Alternativhypothese wie folgt geschrieben: Angenommen, die Variable x in der betrachteten Grundgesamtheit hat eine Normalverteilung und die Grundgesamtheitsvarianz ist unbekannt.

Wir werden die Hypothese anhand von Statistiken testen:

, (1)
wo ist die Stichproben-Standardabweichung.

Es wurde gezeigt, dass wenn wahr, t in Ausdruck (1) eine Student-t-Verteilung mit n-1 Freiheitsgraden hat. Wenn wir das Signifikanzniveau (die Wahrscheinlichkeit, die richtige Hypothese abzulehnen) gleich wählen, können wir gemäß dem, was im vorherigen Kapitel besprochen wurde, die kritischen Werte für das Testen = 0 bestimmen.

BEI dieser Fall, da die Student-Verteilung symmetrisch ist, dann wird der (1-) Teil der Fläche unter der Kurve dieser Verteilung mit n-1 Freiheitsgraden zwischen den Punkten und eingeschlossen, die im Betrag gleich sind. Daher bilden alle Werte kleiner als negativ und größer als positiv für eine t-Verteilung mit einer bestimmten Anzahl von Freiheitsgraden auf dem gewählten Signifikanzniveau den kritischen Bereich. Wenn der Abtastwert t in diesen Bereich fällt, wird die Alternativhypothese akzeptiert.

Das Konfidenzintervall für wird gemäß dem zuvor beschriebenen Verfahren gebildet und aus dem folgenden Ausdruck bestimmt

(2)

In unserem Fall sei also bekannt, dass der Durchmesser der Schale einer fossilen Molluske 18,2 mm beträgt. Wir verfügen über eine Stichprobe von 50 neu gefundenen Granaten, für die mm, a = 2,18 mm. Überprüfen Sie: \u003d 18.2 vs. Wir haben

Wenn das Signifikanzniveau = 0,05 gewählt wird, dann der kritische Wert. Daraus folgt, dass es auf dem Signifikanzniveau =0,05 positiv abgelehnt werden kann. Daher kann für unser hypothetisches Beispiel argumentiert werden (natürlich mit einiger Wahrscheinlichkeit), dass der Durchmesser der Schale fossiler Mollusken einer bestimmten Art von den Orten abhängt, an denen sie lebten.

Aufgrund der Tatsache, dass die t-Verteilung symmetrisch ist, werden bei den gewählten Signifikanzniveaus und der Anzahl der Freiheitsgrade nur positive Werte von t dieser Verteilung angegeben. Außerdem wird nicht nur der Anteil der Fläche unter der Verteilungskurve rechts vom t-Wert berücksichtigt, sondern auch links vom -t-Wert. Dies liegt daran, dass uns beim Testen von Hypothesen in den meisten Fällen die Signifikanz von Abweichungen an sich interessiert, unabhängig davon, ob diese Abweichungen nach oben oder nach unten gehen, d.h. wir prüfen gegen, nicht gegen: >a oder:

Kehren wir nun zu unserem Beispiel zurück. 100(1-)% Konfidenzintervall für ist

18,92,01

Betrachten wir nun den Fall, in dem es notwendig ist, die Mittelwerte zweier Populationen zu vergleichen. Die getestete Hypothese sieht so aus: : =0, : 0. Außerdem wird angenommen, dass sie eine Normalverteilung mit Mittelwert und Varianz und eine Normalverteilung mit Mittelwert und gleicher Varianz hat. Außerdem gehen wir davon aus, dass die Stichproben, anhand derer die Allgemeinbevölkerung geschätzt wird, unabhängig voneinander extrahiert werden und jeweils das Volumen haben, und Aus der Unabhängigkeit der Stichproben folgt, dass, wenn wir eine größere Anzahl von ihnen nehmen und die berechnen Durchschnittswerte für jedes Paar, dann ist die Menge dieser Durchschnittspaare völlig unkorreliert.

Das Testen von Nullhypothesen wird mithilfe von Statistiken durchgeführt

(3)

wobei und die Varianzschätzungen für die erste bzw. zweite Stichprobe sind. Man sieht leicht, dass (3) eine Verallgemeinerung von (1) ist.

Es wurde gezeigt, dass die Statistik (3) eine Student-t-Verteilung mit Freiheitsgraden hat. Wenn und gleich sind, d.h. = = Formel (3) ist vereinfacht und hat die Form

(4)

Betrachten Sie ein Beispiel. Lassen Sie die folgenden Ergebnisse erhalten, wenn Sie die Stängelblätter derselben Pflanzenpopulation während zweier Jahreszeiten messen: Wir nehmen an, dass die Bedingungen für die Anwendung des Student-Kriteriums, d.h. die Normalität der allgemeinen Populationen, aus denen die Stichproben entnommen werden, das Vorhandensein einer unbekannten, aber gleichen Varianz für diese Populationen und die Unabhängigkeit der Stichproben sind erfüllt. Wir schätzen auf dem Signifikanzniveau =0,01. Wir haben

Tabellenwert t = 2,58. Daher muss die Hypothese über die Gleichheit der Mittelwerte der Stängelblattlängen für die Pflanzenpopulation während zweier Jahreszeiten auf dem gewählten Signifikanzniveau verworfen werden.

Aufmerksamkeit! Als Nullhypothese in der mathematischen Statistik wird die Hypothese des Fehlens signifikanter Unterschiede zwischen den verglichenen Indikatoren gewählt, unabhängig davon, ob es sich um Durchschnittswerte, Varianzen oder andere Statistiken handelt. Und in all diesen Fällen, wenn der empirische (durch die Formel berechnete) Wert des Kriteriums größer ist als der theoretische Wert (aus den Tabellen ausgewählt), wird es abgelehnt. Liegt der Erfahrungswert unter dem Tabellenwert, wird er akzeptiert.

Um ein Konfidenzintervall für die Differenz zwischen den Mittelwerten dieser beiden Grundgesamtheiten zu bilden, achten wir darauf, dass der Student's t-Test, wie aus Formel (3) ersichtlich, die Signifikanz der Differenz zwischen den ermittelt bedeutet relativ zum Standardfehler dieser Differenz. Dass der Nenner in (3) genau diesen Standardfehler darstellt, lässt sich anhand der bereits früher betrachteten Beziehungen und der getroffenen Annahmen leicht nachprüfen. Das wissen wir ja im Allgemeinen

Wenn x und y unabhängig sind, dann

Wenn wir anstelle von x- und y-Stichprobenwerten nehmen und uns an die getroffene Annahme erinnern, dass beide Populationen die gleiche Varianz haben, erhalten wir

(5)

Eine Schätzung der Varianz kann aus der folgenden Beziehung erhalten werden

(6)

(Wir dividieren durch, weil aus den Stichproben zwei Größen geschätzt werden und daher die Anzahl der Freiheitsgrade um zwei reduziert werden muss.)

Wenn wir nun (6) in (5) einsetzen und die Quadratwurzel ziehen, erhalten wir den Nenner in Ausdruck (3).

Nach diesem Exkurs kehren wir zur Konstruktion eines Konfidenzintervalls für durchgehend - zurück.

Wir haben

Lassen Sie uns einige Bemerkungen zu den Annahmen machen, die bei der Konstruktion des t-Tests verwendet wurden. Zunächst zeigte sich, dass Verletzungen der Normalitätsannahme für einen unwesentlichen Einfluss auf das Signifikanzniveau und die Power des Tests für 30 haben. Die Verletzung der Annahme der Homogenität der Varianzen beider Grundgesamtheiten, aus denen die Stichproben stammen genommen ist ebenfalls unbedeutend, aber nur, wenn die Stichprobenumfänge gleich sind. Unterscheiden sich jedoch die Varianzen beider Populationen voneinander, dann werden die Wahrscheinlichkeiten für Fehler erster und zweiter Art signifikant von den erwarteten abweichen.

In diesem Fall sollte das Kriterium zur Überprüfung verwendet werden

(7)

mit der Anzahl der Freiheitsgrade

. (8)

In der Regel stellt sich heraus, dass es sich um eine Bruchzahl handelt. Daher müssen bei Verwendung von Tabellen der t-Verteilung Tabellenwerte für die nächsten ganzzahligen Werte genommen und interpoliert werden, um t entsprechend zu finden zum empfangenen.

Betrachten Sie ein Beispiel. Bei der Untersuchung von zwei Unterarten des Seefroschs wurde das Verhältnis von Körperlänge zu Schienbeinlänge berechnet. Es wurden zwei Proben mit Volumina =49 und =27 entnommen. Der Mittelwert und die Varianz des für uns interessanten Verhältnisses betrugen jeweils =2,34; =2,08; =0,21; =0,35. Wenn wir nun die Hypothese mit Formel (2) testen, erhalten wir das

Bei einem Signifikanzniveau von =0,05 müssen wir die Nullhypothese (Tabellenwert t=1,995) verwerfen und davon ausgehen, dass es auf dem gewählten Signifikanzniveau statistisch signifikante Unterschiede zwischen den Mittelwerten der gemessenen Parameter für die beiden Frosch-Unterarten gibt.

Wenn wir die Formeln (6) und (7) verwenden, haben wir

In diesem Fall gilt für dasselbe Signifikanzniveau = 0,05 der Tabellenwert t = 2,015 und die Nullhypothese wird akzeptiert.

Dieses Beispiel zeigt deutlich, dass die Vernachlässigung der bei der Ableitung des einen oder anderen Kriteriums angenommenen Bedingungen zu Ergebnissen führen kann, die den tatsächlich eingetretenen genau entgegengesetzt sind. Natürlich hätten in diesem Fall mit Stichproben unterschiedlicher Größe und Fehlen einer vorbestimmten Tatsache, dass die Varianzen des gemessenen Indikators in beiden Populationen statistisch gleich sind, die Formeln (7) und (8) verwendet werden sollen, was das Fehlen zeigte von statistisch signifikanten Unterschieden.

Ich möchte daher noch einmal wiederholen, dass die Überprüfung der Einhaltung aller Annahmen, die bei der Ableitung eines bestimmten Kriteriums getroffen wurden, eine unbedingt notwendige Voraussetzung für seine korrekte Verwendung ist.

Eine unveränderliche Anforderung bei beiden obigen Modifikationen des t-Tests war die Anforderung, dass die Stichproben voneinander unabhängig sein müssen. In der Praxis gibt es jedoch häufig Situationen, in denen diese Anforderung aus sachlichen Gründen nicht erfüllt werden kann. Beispielsweise werden einige Indikatoren an demselben Tier oder Gebiet des Territoriums vor und nach der Einwirkung eines externen Faktors usw. gemessen. Und in diesen Fällen könnten wir daran interessiert sein, die Hypothese gegenzuprüfen. Wir gehen weiterhin davon aus, dass beide Stichproben aus Normalpopulationen mit der gleichen Varianz stammen.

In diesem Fall können Sie die Tatsache nutzen, dass die Unterschiede zwischen normalverteilten Werten auch eine Normalverteilung aufweisen, und daher den Student-t-Test in der Form (1) verwenden. Somit wird die Hypothese getestet, dass n Differenzen eine Stichprobe aus einer normalverteilten Grundgesamtheit mit einem Mittelwert gleich Null ist.

Wenn wir den i-ten Unterschied mit bezeichnen, haben wir

, (9)
wo

Betrachten Sie ein Beispiel. Stellen Sie uns Daten über die Anzahl der Impulse einer einzelnen Nervenzelle für ein bestimmtes Zeitintervall vor () und nach () der Wirkung des Reizes zur Verfügung:

Unter Berücksichtigung der Tatsache, dass (9) eine t-Verteilung hat, und der Wahl eines Signifikanzniveaus = 0,01, finden wir aus der entsprechenden Tabelle im Anhang, dass der kritische Wert von t für n – 1 = 10 – 1 = 9 Freiheitsgrade ist ist 3,25. Der Vergleich der theoretischen und empirischen Werte der t-Statistik zeigt, dass die Nullhypothese des Fehlens statistisch signifikanter Unterschiede zwischen der Häufigkeit von Impulsen vor und nach der Reizgabe abgelehnt werden sollte. Daraus lässt sich schließen, dass der verwendete Stimulus die Impulshäufigkeit statistisch signifikant verändert.

In experimentellen Studien treten, wie oben erwähnt, ziemlich häufig abhängige Stichproben auf. Diese Tatsache wird jedoch manchmal ignoriert und der t-Test wird fälschlicherweise in der Form (3) verwendet.

Dies kann als ungültig angesehen werden, wenn man die Standardfehler der Differenz zwischen unkorrelierten und korrelierten Mittelwerten betrachtet. Im ersten Fall

Und im zweiten

Der Standardfehler der Differenz d ist

Vor diesem Hintergrund hat der Nenner in (9) die Form

Achten wir nun darauf, dass die Zähler der Ausdrücke (4) und (9) zusammenfallen:

daher hängt der Unterschied im Wert von t in ihnen von den Nennern ab.

Wenn also Formel (3) in dem Problem mit abhängigen Stichproben verwendet wird und die Stichproben eine positive Korrelation aufweisen, sind die resultierenden Werte von t kleiner als sie sein sollten, wenn Formel (9) verwendet wird, und eine Situation Es kann vorkommen, dass die Nullhypothese akzeptiert wird, wenn sie falsch ist. Die umgekehrte Situation kann auftreten, wenn eine negative Korrelation zwischen den Proben besteht, d. h. in diesem Fall werden solche Unterschiede als signifikant anerkannt, was in Wirklichkeit nicht der Fall ist.

Kehren wir zum Beispiel mit Impulsaktivität zurück und berechnen den Wert von t für die gegebenen Daten mit Formel (3), ohne darauf zu achten, dass die Proben verbunden sind. Wir haben: Für die Anzahl der Freiheitsgrade gleich 18 und das Signifikanzniveau = 0,01, den Tabellenwert t = 2,88 und auf den ersten Blick scheint nichts passiert zu sein, selbst wenn eine für die gegebenen Bedingungen ungeeignete Formel verwendet wird . Und in diesem Fall führt der berechnete Wert von t zur Ablehnung der Nullhypothese, d.h. zu der gleichen Schlussfolgerung, die unter Verwendung von Formel (9) gemacht wurde, die in dieser Situation richtig ist.

Lassen Sie uns jedoch die vorhandenen Daten umformen und in der folgenden Form darstellen (2):

Dies sind die gleichen Werte, und sie konnten sehr wohl in einigen der Experimente erhalten werden. Da alle Werte in beiden Stichproben gespeichert sind, ergibt die Verwendung des Student-t-Tests in Formel (3) den zuvor erhaltenen Wert = 3,32 und führt zu derselben Schlussfolgerung, die bereits getroffen wurde.

Und jetzt berechnen wir den Wert von t nach Formel (9), der in diesem Fall verwendet werden sollte. Wir haben: Der kritische Wert von t auf dem gewählten Signifikanzniveau und neun Freiheitsgraden ist 3,25. Folglich haben wir keinen Grund, die Nullhypothese abzulehnen, wir akzeptieren sie, und es stellt sich heraus, dass diese Schlussfolgerung genau entgegengesetzt zu der ist, die gemacht wurde, als Formel (3) verwendet wurde.

An diesem Beispiel wurden wir erneut davon überzeugt, wie wichtig es ist, alle Anforderungen, die der Bestimmung des einen oder anderen Kriteriums zugrunde lagen, strikt einzuhalten, um bei der Analyse experimenteller Daten korrekte Schlussfolgerungen zu ziehen.

Die betrachteten Modifikationen des Student-Kriteriums sollen Hypothesen bezüglich des Durchschnitts von zwei Stichproben testen. Es treten jedoch Situationen auf, in denen Rückschlüsse auf die Gleichheit von gleichzeitig k Mittelwerten gezogen werden müssen. Auch für diesen Fall wurde ein bestimmtes statistisches Verfahren entwickelt, das später bei der Erörterung von Fragen der Varianzanalyse betrachtet wird.

2 Anpassungsgüte für Varianzen

Die Prüfung statistischer Hypothesen zu den Varianzen von Grundgesamtheiten erfolgt in der gleichen Reihenfolge wie bei den Mittelwerten. Erinnern wir uns kurz an diese Sequenz.

1. Es wird eine Nullhypothese formuliert (über das Fehlen statistisch signifikanter Unterschiede zwischen den verglichenen Varianzen).

2. Es werden einige Annahmen über die Stichprobenverteilung der Statistiken getroffen, mit deren Hilfe der in der Hypothese enthaltene Parameter geschätzt werden soll.

3. Ein Signifikanzniveau wird gewählt, um die Hypothese zu testen.

4. Der Wert der für uns interessanten Statistik wird berechnet und es wird über die Richtigkeit der Nullhypothese entschieden.

Und jetzt fangen wir damit an, die Hypothese zu testen, dass die Varianz der Grundgesamtheit = a, d.h. gegen. Wenn wir davon ausgehen, dass die Variable x eine Normalverteilung hat und dass eine Stichprobe der Größe n zufällig aus der Grundgesamtheit gezogen wird, dann werden Statistiken verwendet, um die Nullhypothese zu testen

(10)

In Erinnerung an die Formel zur Berechnung der Varianz schreiben wir (10) wie folgt um:

. (11)

Aus diesem Ausdruck ist ersichtlich, dass der Zähler die Summe der quadrierten Abweichungen normalverteilter Größen von ihrem Mittelwert ist. Jede dieser Abweichungen ist ebenfalls normalverteilt. Daher haben gemäß der uns bekannten Verteilung die Quadratsummen normalverteilter Werte der Statistik (10) und (11) eine -Verteilung mit n-1 Freiheitsgraden.

Analog zur Verwendung der t-Verteilung legt die Verteilungstabelle bei der Prüfung auf das ausgewählte Signifikanzniveau die kritischen Punkte fest, die den Wahrscheinlichkeiten für die Annahme der Nullhypothese und entsprechen. Das Konfidenzintervall für die Auswahl wird wie folgt konstruiert:

. (12)

Betrachten Sie ein Beispiel. Angenommen, auf der Grundlage umfangreicher experimenteller Studien wurde festgestellt, dass die Streuung des Alkaloidgehalts einer Pflanzenart aus einem bestimmten Gebiet 4,37 konventionelle Einheiten beträgt. Eine Stichprobe von n = 28 solcher Pflanzen, vermutlich aus demselben Gebiet, kommt einem Spezialisten zur Verfügung. Die Analyse ergab für diese Stichprobe = 5,01, und es muss sichergestellt werden, dass diese und die zuvor bekannten Varianzen auf dem Signifikanzniveau = 0,1 statistisch nicht unterscheidbar sind.

Nach Formel (10) haben wir

Der erhaltene Wert muss mit den kritischen Werten /2=0,05 und 1--/2=0,95 verglichen werden. Aus der Tabelle im Anhang für 27 Freiheitsgrade haben wir 40,1 bzw. 16,2, was bedeutet, dass die Nullhypothese akzeptiert werden kann. Das entsprechende Konfidenzintervall für beträgt 3,37<<8,35.

Im Gegensatz zur Prüfung von Hypothesen über Stichprobenmittelwerte mit dem Student-Test, bei denen sich Fehler erster und zweiter Art bei Verletzung der Annahme der Normalverteilung von Grundgesamtheiten unwesentlich änderten, bei Hypothesen über Varianzen, wenn die Normalitätsbedingungen nicht erfüllt sind , ändern sich die Fehler erheblich.

Das oben betrachtete Problem der Gleichheit der Varianz mit einem festen Wert ist von begrenztem Interesse, da Situationen ziemlich selten sind, in denen die Varianz der Allgemeinbevölkerung bekannt ist. Viel interessanter ist der Fall, wenn überprüft werden muss, ob die Varianzen zweier Grundgesamtheiten gleich sind, d.h. Testen einer Hypothese gegen eine Alternative. Es wird davon ausgegangen, dass Stichproben der Größe und nach dem Zufallsprinzip aus Grundgesamtheiten mit Varianzen und gezogen werden.

Um die Nullhypothese zu testen, wird der Fisher-Varianzverhältnistest verwendet

(13)

Da die Summen der quadrierten Abweichungen normalverteilter Zufallsvariablen von ihren Mittelwerten eine Verteilung haben, sind sowohl der Zähler als auch der Nenner (13) verteilte Werte geteilt durch bzw. und ihr Verhältnis hat daher eine F-Verteilung mit -1 und -1 Freiheitsgrade.

Es ist allgemein anerkannt – und so sind die Tabellen der F-Verteilung aufgebaut – dass in (13) die größte der Varianzen als Zähler genommen wird und daher nur ein kritischer Punkt entsprechend dem gewählten Signifikanzniveau bestimmt wird .

Stellen wir uns zwei Stichproben mit Volumen =11 und =28 aus den Populationen der Gemeinen und Ovalen Teichschnecken zur Verfügung, bei denen die Höhen-Breiten-Verhältnisse Varianzen =0,59 und =0,38 aufweisen. Es ist notwendig, die Hypothese über die Gleichheit dieser Varianzen dieser Indikatoren für die untersuchten Populationen auf einem Signifikanzniveau = 0,05 zu testen. Wir haben

In der Literatur findet man manchmal die Aussage, dass dem Testen der Hypothese über die Gleichheit der Mittelwerte anhand des Student-Kriteriums ein Testen der Hypothese über die Gleichheit der Varianzen vorausgehen sollte. Das ist die falsche Empfehlung. Darüber hinaus kann es zu Fehlern führen, die vermieden werden können, wenn sie nicht befolgt werden.

Tatsächlich hängen die Ergebnisse des Testens der Hypothese der Varianzgleichheit mit dem Fisher-Test weitgehend von der Annahme ab, dass die Stichproben Populationen mit einer Normalverteilung entnommen wurden. Gleichzeitig ist der Student-t-Test unempfindlich gegenüber Normalitätsverletzungen, und wenn es möglich ist, Stichproben gleicher Größe zu erhalten, ist die Annahme der Varianzgleichheit ebenfalls nicht wesentlich. Bei ungleichem n sind die Formeln (7) und (8) zur Überprüfung heranzuziehen.

Beim Testen von Hypothesen über die Gleichheit der Varianzen treten einige Merkmale in den Berechnungen auf, die mit abhängigen Stichproben verbunden sind. In diesem Fall wird die Statistik verwendet, um die Hypothese gegen die Alternative zu testen.

(14)

Wenn die Nullhypothese wahr ist, dann hat die Statistik (14) eine Student-t-Verteilung mit n-2 Freiheitsgraden.

Bei der Messung des Glanzes von 35 Lackproben wurde eine Streuung von = 134,5 erhalten. Wiederholte Messungen zwei Wochen später zeigten = 199,1. In diesem Fall stellte sich heraus, dass der Korrelationskoeffizient zwischen gepaarten Messungen =0,876 war. Wenn wir nicht darauf achten, dass die Stichproben abhängig sind, und das Fisher-Kriterium verwenden, um die Hypothese zu testen, erhalten wir F = 1,48. Wenn Sie ein Signifikanzniveau =0,05 wählen, wird die Nullhypothese akzeptiert, da der kritische Wert der F-Verteilung für =35-1=34 und =35-1=34 Freiheitsgrade 1,79 beträgt.

Wenn wir gleichzeitig die für diesen Fall geeignete Formel (14) verwenden, erhalten wir t = 2,35, während der kritische Wert von t für 33 Freiheitsgrade und das gewählte Signifikanzniveau = 0,05 2,03 beträgt. Daher sollte die Nullhypothese über die Gleichheit der Varianzen in diesen beiden Stichproben verworfen werden. Somit zeigt dieses Beispiel, dass wie im Fall der Prüfung der Hypothese der Mittelwertgleichheit die Verwendung eines Kriteriums, das die Besonderheiten der experimentellen Daten nicht berücksichtigt, zu einem Fehler führt.

In der empfohlenen Literatur findet man den Bartlett-Test, der zum Testen von Hypothesen über die gleichzeitige Gleichheit von k Varianzen verwendet wird. Abgesehen davon, dass die Berechnung der Statistik dieses Tests ziemlich mühsam ist, besteht der Hauptnachteil dieses Tests darin, dass er ungewöhnlich empfindlich auf Abweichungen von der Annahme normaler Verteilungen der Populationen reagiert, aus denen die Stichproben gezogen werden. Bei seiner Verwendung kann man also nie sicher sein, dass die Nullhypothese tatsächlich verworfen wird, weil die Varianzen statistisch signifikant unterschiedlich sind, und nicht, weil die Stichproben nicht normalverteilt sind. Daher muss im Falle eines Problems des Vergleichs mehrerer Varianzen nach einer solchen Problemstellung gesucht werden, wenn das Fisher-Kriterium oder seine Modifikationen verwendet werden können.

3 Kriterien für die Vereinbarung von Anteilen

Nicht selten ist es notwendig, Populationen zu analysieren, in denen Objekte einer von zwei Kategorien zugeordnet werden können. Zum Beispiel durch das Geschlecht in einer bestimmten Population, durch das Vorhandensein eines bestimmten Spurenelements im Boden, durch die dunkle oder helle Farbe der Eier bei einigen Vogelarten usw.

Der Anteil von Elementen mit einer bestimmten Qualität wird mit P bezeichnet, wobei P das Verhältnis von Objekten mit der Qualität, an der wir interessiert sind, zu allen Objekten insgesamt ist.

Lassen Sie die Hypothese testen, dass in einer ausreichend großen Population der Anteil P gleich einer Zahl a (0

Bei dichotomen (mit zwei Abstufungen) Variablen, wie in unserem Fall, spielt P die gleiche Rolle wie der Durchschnitt der Grundgesamtheit der quantitativ gemessenen Variablen. Andererseits wurde zuvor darauf hingewiesen, dass der Standardfehler des Bruchteils P dargestellt werden kann als

Dann, wenn die Hypothese wahr ist, dann die Statistik

, (19)
wobei p der Stichprobenwert von P ist, hat eine Einheitsnormalverteilung. Wir müssen sofort reservieren, dass eine solche Näherung gültig ist, wenn das kleinere der Produkte np oder (1-p)n größer als 5 ist.

Lassen Sie aus den Literaturdaten wissen, dass in der Seefroschpopulation der Anteil der Individuen mit einem Längsstreifen auf dem Rücken 62% oder 0,62 beträgt. Uns steht eine Stichprobe von 125 (n) Individuen zur Verfügung, von denen 93 (f) einen Längsstreifen auf dem Rücken haben. Es ist zu klären, ob der Anteil der Personen mit dem interessierenden Merkmal in der Grundgesamtheit, aus der die Stichprobe gezogen wurde, den bekannten Daten entspricht. Wir haben: p=f/n=93/125=0,744, a=0,62, n(1-p)=125(1-0,744)=32>5 und

Daher muss sowohl für das Signifikanzniveau = 0,05 als auch für = 0,01 die Nullhypothese verworfen werden, da der kritische Wert für = 0,05 1,96 und für = 0,01 - 2,58 beträgt.

Wenn es zwei große Populationen gibt, in denen die Anteile von Objekten mit der für uns interessierenden Eigenschaft jeweils und sind, dann ist es von Interesse, die Hypothese zu testen: = versus Alternative:. Zur Verifizierung werden zwei Stichproben der Volumina und zufällig und unabhängig voneinander entnommen. Basierend auf diesen Stichproben werden Statistiken geschätzt und bestimmt.

(20)

wobei und die Anzahl der Objekte sind, die diese Funktion in der ersten bzw. zweiten Stichprobe aufweisen.

Aus Formel (20) ist ersichtlich, dass bei ihrer Ableitung das gleiche Prinzip verwendet wurde, dem wir zuvor begegnet sind. Um statistische Hypothesen zu testen, wird nämlich die Anzahl der Standardabweichungen bestimmt, die den Unterschied zwischen den für uns interessanten Indikatoren ausmachen, tatsächlich ist der Wert (+)/(+) der Anteil der Objekte mit einem bestimmten Merkmal in beiden Proben gleichzeitig. Wenn wir es mit bezeichnen, dann ist der Ausdruck in der zweiten Klammer des Nenners (20) (1-) und es wird offensichtlich, dass der Ausdruck (20) äquivalent ist zur Formel zum Testen der Nullhypothese:

Als.

Andererseits Standardfehler. Somit kann (20) geschrieben werden als

. (21)

Der einzige Unterschied zwischen dieser Statistik und der Statistik, die zum Testen von Hypothesen über Mittelwerte verwendet wird, besteht darin, dass z eine Einheitsnormalverteilung hat, nicht t-.

Die Untersuchung einer Gruppe von Personen (= 82) zeige, dass der Anteil der Personen, die im Elektroenzephalogramm einen -Rhythmus aufweisen, 0,84 oder 84 % beträgt. Eine Studie an einer Gruppe von Menschen in einem anderen Gebiet (=51) zeigte, dass dieser Anteil 0,78 beträgt. Für ein Signifikanzniveau von = 0,05 muss überprüft werden, ob die Anteile von Personen mit Gehirn-Alpha-Aktivität in der Gesamtbevölkerung, aus der die Proben gezogen wurden, gleich sind.

Lassen Sie uns zunächst sicherstellen, dass die verfügbaren experimentellen Daten es uns erlauben, die Statistiken zu verwenden (20). Wir haben:

und da z eine Normalverteilung hat, für die der kritische Punkt bei =0,05 1,96 ist, wird die Nullhypothese akzeptiert.

Das betrachtete Kriterium ist gültig, wenn die Proben, für die die Anteile von Objekten mit dem für uns interessierenden Merkmal verglichen wurden, unabhängig sind. Wenn diese Anforderung nicht erfüllt ist, beispielsweise wenn die Menge in aufeinanderfolgenden Zeitintervallen betrachtet wird, dann kann dasselbe Objekt dieses Merkmal in diesen Intervallen haben oder nicht.

Lassen Sie uns das Vorhandensein eines interessierenden Merkmals für das Objekt mit 1 und dessen Fehlen mit 0 bezeichnen. Dann gelangen wir zu Tabelle 3, wo (a+c) die Anzahl der Objekte in der ersten Stichprobe ist, die ein bestimmtes Merkmal aufweisen, ( a+c) ist die Anzahl der Objekte mit diesem Merkmal in der zweiten Stichprobe, und n ist die Gesamtzahl der untersuchten Objekte. Es ist offensichtlich, dass es sich hierbei um eine bereits bekannte Vier-Felder-Tabelle handelt, deren Verhältnis über den Koeffizienten geschätzt wird

Für einen solchen Tisch und klein (<10) значений в каждой клетке Р.Фишером было найдено точное распределение для, которое позволяет проверять гипотезу: =. Это распределение имеет довольно сложный вид, и его критические точки приводятся в специальных таблицах. В реальных ситуациях, как правило, значения в каждой клетке больше 10, и было показано, что в этих случаях для проверки нулевой гипотезы можно использовать статистику

(22)
die, wenn die Nullhypothese wahr ist, eine Chi-Quadrat-Verteilung mit einem Freiheitsgrad hat.

Betrachten Sie ein Beispiel. Lassen Sie die Wirksamkeit von Malaria-Impfungen zu unterschiedlichen Jahreszeiten zwei Jahre lang testen Es wird die Hypothese getestet, dass die Wirksamkeit von Impfungen unabhängig von der Jahreszeit ist, in der sie durchgeführt werden. Wir haben

Der Tabellenwert für =0,05 ist 3,84 und für =0,01 ist 6,64. Daher muss auf jedem dieser Signifikanzniveaus die Nullhypothese verworfen werden, und in diesem hypothetischen Beispiel (das jedoch für die Realität relevant ist) kann geschlussfolgert werden, dass Biere, die in der zweiten Jahreshälfte gebraut werden, signifikant mehr sind Wirksam.

Eine natürliche Verallgemeinerung des Verbindungskoeffizienten für eine Vier-Felder-Tabelle ist, wie bereits erwähnt, der gegenseitige Chuprov-Konjugationskoeffizient. Für diesen Koeffizienten ist die genaue Verteilung unbekannt, daher wird die Gültigkeit der Hypothese beurteilt, indem der berechnete Wert und das ausgewählte Signifikanzniveau mit kritischen Punkten für diese Verteilung verglichen werden. Die Anzahl der Freiheitsgrade wird aus dem Ausdruck (r-1)(c-1) bestimmt, wobei r und c die Anzahl der Abstufungen für jedes Merkmal sind.

Erinnern Sie sich an die Berechnungsformeln

Die Daten, die während der Untersuchung des Sichtbereichs mit dem rechten und linken Auge bei Personen ohne visuelle Anomalien erhalten wurden, werden vorgestellt. Herkömmlicherweise wird dieser Bereich in vier Kategorien unterteilt, und wir interessieren uns für die Zuverlässigkeit der Beziehung zwischen dem Sehbereich des linken und des rechten Auges. Zuerst finden wir alle Terme in der Doppelsumme. Dazu wird das Quadrat jedes in der Tabelle angegebenen Wertes durch die Summe der Zeile und Spalte geteilt, zu der die ausgewählte Zahl gehört. Wir haben

Unter Verwendung dieses Werts erhalten wir =3303,6 und T=0,714.

4 Kriterien für den Vergleich von Bevölkerungsverteilungen

In klassischen Experimenten zur Erbsenzüchtung, die den Beginn der Genetik markierten, beobachtete G. Mendel die Frequenzen verschiedener Arten von Samen, die durch Kreuzung von Pflanzen mit runden gelben Samen und mit faltigen grünen Samen erhalten wurden.

In diesem und ähnlichen Fällen ist es von Interesse, die Nullhypothese über die Gleichheit der Verteilungsfunktionen der Grundgesamtheiten, aus denen die Stichproben gezogen werden, zu testen, d. h. Theoretische Berechnungen haben gezeigt, dass bei der Lösung eines solchen Problems Statistiken verwendet werden können

= (23)

Das Kriterium, das diese Statistik verwendet, wurde von K. Pearson vorgeschlagen und trägt seinen Namen. Der Pearson-Test wird auf gruppierte Daten angewendet, unabhängig davon, ob sie eine kontinuierliche oder diskrete Verteilung aufweisen. In (23) ist k die Anzahl der Clustering-Intervalle, die empirischen Häufigkeiten und die erwarteten oder theoretischen Häufigkeiten (=n). Wenn die Nullhypothese wahr ist, hat die Statistik (23) eine -Verteilung mit k-1 Freiheitsgraden.

Für die in der Tabelle angegebenen Daten

Die kritischen Punkte der -Verteilung mit 3 Freiheitsgraden für =0,05 und =0,01 sind 7,81 bzw. 11,3. Daher wird die Nullhypothese akzeptiert und der Schluss gezogen, dass die Segregation bei den Nachkommen in guter Übereinstimmung mit den theoretischen Gesetzen steht.

Betrachten wir ein weiteres Beispiel. In der Meerschweinchenkolonie wurden im Laufe des Jahres ab Januar die folgenden Geburtszahlen der Männchen nach Monaten erhalten: 65, 64, 65, 41, 72, 80, 88, 114, 80, 129, 112, 99. entsprechen zu einer gleichmäßigen Verteilung, d.h. Verteilung, bei der die Anzahl der in bestimmten Monaten geborenen Männer im Durchschnitt gleich ist? Wenn wir diese Hypothese akzeptieren, wird die erwartete durchschnittliche Anzahl von geborenen Männern gleich sein. Dann

Der kritische Wert der Verteilung mit 11 Freiheitsgraden und = 0,01 beträgt 24,7, sodass die Nullhypothese auf dem gewählten Signifikanzniveau verworfen wird. Eine weitere Analyse der Versuchsdaten zeigt, dass die Wahrscheinlichkeit der Geburt männlicher Meerschweinchen in der zweiten Jahreshälfte zunimmt.

In dem Fall, in dem angenommen wird, dass die theoretische Verteilung gleichmäßig ist, gibt es keine Probleme bei der Berechnung der theoretischen Zahlen. Bei anderen Verteilungen werden die Berechnungen komplizierter. Schauen wir uns Beispiele an, wie theoretische Zahlen für Normal- und Poisson-Verteilungen berechnet werden, die in der Forschungspraxis weit verbreitet sind.

Beginnen wir mit der Definition theoretischer Zahlen für eine Normalverteilung. Die Idee ist, unsere empirische Verteilung in eine Verteilung mit Nullmittelwert und Einheitsvarianz umzuwandeln. Natürlich werden in diesem Fall die Grenzen der Klassenintervalle in Einheiten der Standardabweichung ausgedrückt, und dann wird daran erinnert, dass die Fläche unter dem durch die oberen und unteren Werte jedes Intervalls begrenzten Abschnitt der Kurve gleich ist die Wahrscheinlichkeit, in dieses Intervall zu fallen, indem wir diese Wahrscheinlichkeit mit der Gesamtzahl der Proben multiplizieren, erhalten wir die gewünschte theoretische Zahl.

Angenommen, wir haben eine empirische Verteilung für die Länge von Eichenblättern und es soll geprüft werden, ob mit einem Signifikanzniveau = 0,05 davon ausgegangen werden kann, dass diese Verteilung nicht signifikant von der normalen abweicht.

Lassen Sie uns erklären, wie die in der Tabelle angegebenen Werte berechnet wurden. Zuerst wurden gemäß der Standardmethode für gruppierte Daten der Mittelwert und die Standardabweichung berechnet, die sich als =10,3 und =2,67 herausstellten. Basierend auf diesen Werten wurden die Grenzen der Intervalle in Einheiten der Standardabweichung gefunden, d. h. standardisierte Werte gefunden Zum Beispiel haben wir für die Grenzen des Intervalls (46): (4-10,3)/2,67=-2,36; (6-10,3)/2,67=-1,61. Dann wurde für jedes Intervall die Wahrscheinlichkeit berechnet, hineinzufallen. Zum Beispiel haben wir für das Intervall (-0,110,64) aus der Normalverteilungstabelle, dass links vom Punkt (-0,11) 0,444 der Fläche der Einheitsnormalverteilung liegt und links von der Punkt (0,64) - 0,739 dieser Fläche. Somit beträgt die Wahrscheinlichkeit, in dieses Intervall zu fallen, 0,739-0,444=0,295. Die restlichen Berechnungen sind offensichtlich. Erklären Sie den Unterschied zwischen n und . Sie ergibt sich aus der Tatsache, dass die theoretische Normalverteilung für praktische Zwecke als auf ein Intervall zentriert betrachtet werden kann. Im Experiment gibt es keine Werte, die mehr als vom Mittelwert abweichen. Daher ist die Fläche unter der empirischen Verteilungskurve nicht gleich Eins, wodurch ein Fehler entsteht. Dieser Fehler ändert jedoch die endgültigen Ergebnisse nicht wesentlich.

Beim Vergleich der empirischen und theoretischen Verteilung ergibt sich die Anzahl der Freiheitsgrade für die -Verteilung aus der Beziehung f=m-1-l, wobei m die Anzahl der Klassenintervalle und l die Anzahl der unabhängigen Verteilungsparameter ist aus der Stichprobe geschätzt. Für eine Normalverteilung ist l=2, da sie von zwei Parametern abhängt: und.

Die Anzahl der Freiheitsgrade wird ebenfalls um 1 reduziert, da für jede Verteilung die Bedingung gilt, dass \u003d 1 ist, und daher die Anzahl der unabhängig bestimmten Wahrscheinlichkeiten k-1 und nicht k ist.

Für das gegebene Beispiel ist f = 8-2-1 = 5 und der kritische Wert bei =0,05 für eine α-Verteilung mit 5 Freiheitsgraden ist 11,07. Daher wird die Nullhypothese akzeptiert.

Wir betrachten die Technik des Vergleichs der empirischen Verteilung mit der Poisson-Verteilung anhand des klassischen Beispiels der monatlichen Todesfälle von Dragonern in der preußischen Armee durch einen Pferdehuf. Die Daten beziehen sich auf das 19. Jahrhundert, und die Anzahl der Todesfälle ist 0, 1, 2 usw. kennzeichnen diese traurigen, aber glücklicherweise relativ seltenen Ereignisse in der preußischen Kavallerie in fast 20 Jahren Beobachtung.

Wie Sie wissen, hat die Poisson-Verteilung folgende Form:

wo ist der Verteilungsparameter gleich dem Mittelwert,

K=0,1,2,...,n.

Da die Verteilung diskret ist, werden die für uns interessanten Wahrscheinlichkeiten direkt durch die Formel gefunden.

Zeigen wir zum Beispiel, wie die theoretische Zahl für k=3 ermittelt wird. Wie üblich stellen wir fest, dass der Durchschnitt in dieser Verteilung 0,652 beträgt. Mit diesem Wert finden wir

Von hier

Wenn wir =0,05 wählen, dann ist der kritische Wert für eine 2-DOF-β-Verteilung 5,99, und daher wird die Hypothese akzeptiert, dass die empirische Verteilung auf dem gewählten Signifikanzniveau nicht von der Poisson-Verteilung abweicht. Die Anzahl der Freiheitsgrade ist in diesem Fall gleich zwei, da die Poisson-Verteilung von einem Parameter abhängt und daher im Verhältnis f = m-1-l die aus der Stichprobe geschätzte Anzahl von Parametern l = 1 ist, und f=4-1-1=2.

Manchmal ist es in der Praxis wichtig zu wissen, ob sich zwei Verteilungen voneinander unterscheiden, auch wenn es schwierig ist zu entscheiden, durch welche theoretische Verteilung sie angenähert werden können. Dies ist insbesondere dann wichtig, wenn sich beispielsweise ihre Mittelwerte und/oder Varianzen nicht statistisch signifikant voneinander unterscheiden. Das Auffinden signifikanter Unterschiede in den Verteilungsmustern kann dem Forscher helfen, Annahmen über die möglichen Faktoren zu treffen, die zu diesen Unterschieden führen.

In diesem Fall können Statistiken (23) verwendet werden, und die Werte einer Verteilung werden als empirische Zahlen verwendet, und die Werte einer anderen Verteilung werden als theoretische verwendet. Natürlich sollte in diesem Fall die Einteilung in eine Klasse von Intervallen für beide Verteilungen gleich sein. Dies bedeutet, dass für alle Daten aus beiden Stichproben die Minimal- und Maximalwerte ausgewählt werden, unabhängig davon, zu welcher Stichprobe sie gehören, und dann gemäß der ausgewählten Anzahl von Klassenintervallen ihre Breite und die Anzahl bestimmt werden Objekte, die in separate Intervalle fallen, wird für jede Stichprobe separat berechnet.

In diesem Fall kann es vorkommen, dass einige Klassen keine oder nur wenige (35) Werte erhalten. Die Verwendung des Pearson-Kriteriums liefert zufriedenstellende Ergebnisse, wenn mindestens 35 Werte in jedes Intervall fallen. Wenn diese Anforderung nicht erfüllt ist, müssen daher benachbarte Intervalle zusammengeführt werden. Dies geschieht natürlich für beide Distributionen.

Und zum Schluss noch eine Bemerkung zum Vergleich des errechneten Wertes und der kritischen Punkte dafür je nach gewähltem Signifikanzniveau. Wir wissen bereits, dass wenn > die Nullhypothese abgelehnt wird. Werte nahe dem kritischen Punkt 1- rechts sollten jedoch unseren Verdacht wecken, denn eine so zu gute Übereinstimmung zwischen der empirischen und der theoretischen Verteilung oder zweier empirischer Verteilungen (immerhin werden sich in diesem Fall die Zahlen nur sehr geringfügig unterscheiden voneinander) ist bei zufälligen Verteilungen unwahrscheinlich. In diesem Fall sind zwei alternative Erklärungen möglich: Entweder handelt es sich um ein Gesetz, und dann ist das erhaltene Ergebnis nicht überraschend, oder die experimentellen Daten werden aus irgendeinem Grund aneinander „angepasst“, was ihre erneute Überprüfung erfordert.

Im Beispiel mit Erbsen haben wir übrigens nur den ersten Fall, also Das Auftreten von Samen unterschiedlicher Glätte und Farbe bei den Nachkommen ist gesetzlich festgelegt, und daher ist es nicht verwunderlich, dass sich der berechnete Wert als so gering herausstellte.

Kehren wir nun zum Testen der statistischen Hypothese über die Identität der beiden empirischen Verteilungen zurück. Es werden Daten zur Verteilung der Anzahl der Blütenblätter von Anemonenblüten aus verschiedenen Lebensräumen angegeben.

Aus den tabellarischen Daten ist ersichtlich, dass die ersten beiden und die letzten beiden Intervalle kombiniert werden müssen, da die Anzahl der in sie fallenden Werte nicht ausreicht, um das Pearson-Kriterium korrekt zu verwenden. Dieses Beispiel zeigt auch, dass, wenn nur die Verbreitung von Lebensraum A analysiert würde, das Klassenintervall mit 4 Blütenblättern überhaupt nicht existieren würde. Es erschien als Ergebnis der Tatsache, dass zwei Verteilungen gleichzeitig betrachtet werden, und in der zweiten Verteilung gibt es eine solche Klasse.

Testen wir also die Hypothese, dass sich diese beiden Verteilungen nicht voneinander unterscheiden. Wir haben

Bei einer Anzahl von Freiheitsgraden von 4 und einem Signifikanzniveau von sogar 0,001 wird die Nullhypothese verworfen.

Um zwei Stichprobenverteilungen zu vergleichen, kann man auch ein nichtparametrisches Kriterium verwenden, das von N. V. Smirnov vorgeschlagen wurde und auf Statistiken basiert, die zuvor von A. N. Kolmogorov eingeführt wurden. (Deshalb wird dieser Test manchmal als Kolmogorov-Smirnov-Test bezeichnet.) Dieser Test basiert auf dem Vergleich kumulativer Häufigkeitsreihen. Die Statistik für dieses Kriterium wird als gefunden

maximal, (24)
wobei und kumulative Häufigkeitsverteilungskurven sind.

Kritische Punkte für die Statistik (24) ergeben sich aus der Relation

, (25)
wobei und die Volumina der ersten und zweiten Probe sind.

Kritische Werte für =0,1;=0,05; und =0,01 jeweils gleich 1,22 sind; 1,36; 1.63. Lassen Sie uns die Anwendung des Smirnov-Kriteriums auf gruppierte Daten veranschaulichen und das Wachstum von gleichaltrigen Schulkindern aus zwei verschiedenen Bezirken darstellen.

Die maximale Differenz zwischen den Summenhäufigkeitskurven beträgt 0,124. Wenn wir das Signifikanzniveau =0,05 wählen, dann haben wir aus Formel (25).

0,098.

Somit ist die maximale empirische Differenz größer als theoretisch erwartet, daher wird auf dem akzeptierten Signifikanzniveau die Nullhypothese über die Identität der beiden betrachteten Verteilungen verworfen.

Der Smirnov-Test kann auch für nicht gruppierte Daten verwendet werden, die einzige Voraussetzung ist, dass die Daten aus Populationen mit kontinuierlicher Verteilung gezogen werden müssen. Es ist auch wünschenswert, dass die Anzahl der Werte in jeder der Proben mindestens 40-50 beträgt.

Zur Überprüfung der Nullhypothese, wonach zwei unabhängige Stichproben der Größe n und m denselben Verteilungsfunktionen entsprechen, hat F. Wilcoxon ein nicht-parametrisches Kriterium vorgeschlagen, das in den Arbeiten von G. Mann und F. Whitney untermauert wurde. Daher wird dieses Kriterium in der Literatur entweder als Wilcoxon-Kriterium oder als Mann-Whitney-Kriterium bezeichnet. Es ist sinnvoll, dieses Kriterium zu verwenden, wenn die Mengen der erhaltenen Proben gering sind und die Verwendung anderer Kriterien illegal ist.

Die folgenden Berechnungen veranschaulichen den Ansatz zur Konstruktion von Kriterien, die Statistiken verwenden, die sich nicht auf die Stichprobenwerte selbst, sondern auf ihre Ränge beziehen.

Lassen Sie uns zwei Proben von Volumen n- und m-Werten zur Verfügung haben. Lassen Sie uns daraus eine allgemeine Variationsreihe konstruieren und jeden dieser Werte mit seinem Rang () vergleichen, d.h. die Seriennummer, die es in der Rangreihe einnimmt. Wenn die Nullhypothese wahr ist, dann ist jede Rangverteilung gleichwahrscheinlich, und die Gesamtzahl möglicher Rangkombinationen für gegebenes n und m ist gleich der Anzahl der Kombinationen von N=n+m Elementen durch m.

Der Wilcoxon-Test basiert auf Statistiken

. (26)

Um die Nullhypothese formal zu testen, müssen alle möglichen Kombinationen von Rängen berechnet werden, für die die Statistik W Werte annimmt, die gleich oder kleiner sind als die für eine bestimmte Rangfolge erhaltenen, und das Verhältnis dieser Zahl zur Gesamtzahl ermitteln Anzahl möglicher Rangkombinationen für beide Stichproben. Der Vergleich des erhaltenen Werts mit dem gewählten Signifikanzniveau ermöglicht die Annahme oder Ablehnung der Nullhypothese. Die Angemessenheit dieses Ansatzes besteht darin, dass, wenn eine Verteilung relativ zu einer anderen voreingenommen ist, sich dies in der Tatsache manifestiert, dass kleine Ränge hauptsächlich einer Stichprobe entsprechen sollten und große einer anderen. Abhängig davon müssen die entsprechenden Rangsummen klein oder groß sein, je nachdem welche Alternative stattfindet.

Es ist notwendig, die Hypothese über die Identität der Verteilungsfunktionen, die beide Messmethoden charakterisieren, mit einem Signifikanzniveau = 0,05 zu testen.

In diesem Beispiel n=3, m=2, N = 2+3 = 5, und die Summe der Ränge, die Messungen nach Methode B entsprechen, ist 1+3 = 4.

Schreiben wir alle =10 möglichen Rangverteilungen und ihre Summen auf:

Ränge: 1,2 1,3 1,4 1,5 2,3 2,4 2,5 3,4 3,5 4,5

Beträge: 3 4 5 6 5 6 7 7 8 9

Das Verhältnis der Anzahl der Rangkombinationen, deren Summe den erhaltenen Wert von 4 für Methode B nicht überschreitet, zur Gesamtzahl der möglichen Rangkombinationen ist 2/10 = 0,2 > 0,05, also für dieses Beispiel die Nullhypothese akzeptiert.

Für kleine Werte von n und m kann die Nullhypothese getestet werden, indem die Anzahl der Kombinationen der entsprechenden Rangsummen direkt gezählt wird. Bei großen Stichproben wird dies jedoch praktisch unmöglich, weshalb für die W-Statistik eine Annäherung erhalten wurde, die, wie sich herausstellte, mit den entsprechenden Parametern asymptotisch zu einer Normalverteilung tendiert. Wir werden diese Parameter berechnen, um den Ansatz zur Synthese statistischer Kriterien auf der Grundlage von Rängen zu veranschaulichen. Dabei nutzen wir die in Kapitel 37 vorgestellten Ergebnisse.

Sei W die Summe der Ränge, die einer der Proben entspricht, beispielsweise der mit dem Volumen m. Sei das arithmetische Mittel dieser Ränge. Die mathematische Erwartung des Wertes ist

denn unter der Nullhypothese sind die Ränge der Elemente der Stichprobe der Größe m eine Stichprobe aus einer endlichen Grundgesamtheit von 1, 2,...,N (N=n+m). Es ist bekannt, dass

Deshalb.

Bei der Berechnung der Varianz nutzen wir die Tatsache, dass die Summe der quadrierten Ränge der gesamten Rangfolge, die sich aus den Werten beider Stichproben zusammensetzt, gleich ist

Unter Berücksichtigung der zuvor erhaltenen Beziehungen zum Schätzen der Varianzen von Grundgesamtheiten und Stichproben haben wir

Daraus folgt das

Es hat sich gezeigt, dass die Statistik

(27)

für große n und m hat eine asymptotisch einheitliche Normalverteilung.

Betrachten Sie ein Beispiel. Lassen Sie Daten über die polarographische Aktivität von Blutserumfiltrat für zwei Altersgruppen erhalten. Es ist notwendig, die Hypothese mit einem Signifikanzniveau = 0,05 zu testen, dass die Stichproben aus Allgemeinbevölkerungen mit denselben Verteilungsfunktionen stammen. Die Rangsumme für die erste Stichprobe beträgt 30, für die zweite - 90. Die Überprüfung der Richtigkeit der Berechnung der Rangsummen ist die Erfüllung der Bedingung. In unserem Fall 30+90=(7+8)(7+8+1):

:2=120. Durch Formel (27) unter Verwendung der Summe der Ränge der zweiten Stichprobe haben wir

Wenn wir die Summe der Ränge für die erste Stichprobe verwenden, erhalten wir den Wert = -3,01. Da die berechnete Statistik eine Einheitsnormalverteilung aufweist, ist es natürlich, dass sowohl im ersten als auch im zweiten Fall die Nullhypothese abgelehnt wird, da der kritische Wert für das Signifikanzniveau von 5 % Modulo 1,96 ist.

Bei der Verwendung des Wilcoxon-Tests treten gewisse Schwierigkeiten auf, wenn in beiden Stichproben die gleichen Werte auftreten, da die Verwendung der obigen Formel zu einer zum Teil sehr signifikanten Abnahme der Aussagekraft des Tests führt.

Um in solchen Fällen Fehler zu minimieren, empfiehlt es sich, die folgende Faustregel anzuwenden. Beim erstmaligen Auftreten gleicher Werte, die zu verschiedenen Proben gehören, wird zufällig bestimmt, welcher in der Variationsreihe zuerst gesetzt wird, beispielsweise durch einen Münzwurf. Wenn es mehrere solcher Werte gibt, wechseln sich die verbleibenden gleichen Werte aus beiden Stichproben nach zufälliger Bestimmung des ersten durch einen ab. In den Fällen, in denen auch andere gleiche Werte auftreten, tun Sie dies. Wenn in der ersten Gruppe gleicher Werte der erste Wert zufällig aus einer von einigen Stichproben ausgewählt wurde, dann wird in der nächsten Gruppe gleicher Werte der erste Wert aus einer anderen Stichprobe ausgewählt und so weiter.

5. Kriterien für die Prüfung auf Zufälligkeit und Bewertung von Ausreißern

Recht häufig werden Daten in zeitlicher oder räumlicher Folge erhalten. Beispielsweise wird bei der Durchführung psychophysiologischer Experimente, die mehrere Stunden, mehrere zehn- oder hundertmal dauern können, die Latenz (Latenzzeit) der Reaktion auf den dargebotenen visuellen Stimulus gemessen, oder bei geografischen Erhebungen, wenn sie sich an Orten befinden an bestimmten Stellen, z.B. entlang der Randwälder, wird die Anzahl der Pflanzen einer bestimmten Art gezählt usw. Andererseits wird bei der Berechnung verschiedener Statistiken davon ausgegangen, dass die Eingabedaten unabhängig und gleich verteilt sind. Daher ist es interessant, diese Annahme zu überprüfen.

Betrachten Sie zunächst ein Kriterium zur Überprüfung der Nullhypothese der Unabhängigkeit identisch normalverteilter Größen. Somit ist dieses Kriterium parametrisch. Es basiert auf der Berechnung der mittleren Quadrate aufeinanderfolgender Differenzen

. (28)

Wenn wir eine neue Statistik einführen, dann ist, wie aus der Theorie bekannt, wenn die Nullhypothese wahr ist, die Statistik

(29)
für n>10 ist gemäß der Standardnormalverteilung asymptotisch verteilt.

Betrachten Sie ein Beispiel. Die Reaktionszeiten () des Probanden in einem der psychophysiologischen Experimente sind angegeben.

Wir haben: wo

Da für =0,05 der kritische Wert 1,96 beträgt, wird die Nullhypothese über die Unabhängigkeit der resultierenden Reihe mit dem gewählten Signifikanzniveau akzeptiert.

Eine weitere Frage, die sich bei der Analyse experimenteller Daten häufig stellt, ist, was mit einigen Beobachtungen zu tun ist, die sich stark von der Masse der Beobachtungen unterscheiden. Solche ungewöhnlichen Beobachtungen können aus methodischen Fehlern, Rechenfehlern usw. resultieren. In all jenen Fällen, in denen der Experimentator weiß, dass sich ein Fehler in die Beobachtung eingeschlichen hat, muss er diesen Wert, egal wie groß er sein mag, ausschließen. In anderen Fällen besteht nur der Verdacht auf einen Irrtum, und dann gilt es, die entsprechenden Kriterien heranzuziehen, um die eine oder andere Entscheidung zu treffen, d.h. Nebenbeobachtungen ausschließen oder weglassen.

Im allgemeinen Fall stellt sich die Frage wie folgt: Wurden die Beobachtungen an derselben Grundgesamtheit gemacht, oder bezogen sich einige Teil- oder Einzelwerte auf eine andere Grundgesamtheit?

Natürlich ist der einzige verlässliche Weg, einzelne Beobachtungen auszuschließen, die sorgfältige Untersuchung der Bedingungen, unter denen diese Beobachtungen gemacht werden. Wenn die Bedingungen aus irgendeinem Grund von den Standardbedingungen abwichen, sollten die Beobachtungen von der weiteren Analyse ausgeschlossen werden. Aber in bestimmten Fällen können die bestehenden Kriterien, obwohl unvollkommen, von erheblichem Nutzen sein.

Wir stellen hier ohne Beweis mehrere Beziehungen vor, die verwendet werden können, um die Hypothese zu testen, dass Beobachtungen zufällig über dieselbe allgemeine Population gemacht werden. Wir haben

(30)

(31)

(32)

wo ist eine Beobachtung, bei der der Verdacht besteht, dass es sich um einen Ausreißer handelt. Wenn alle Werte der Reihe geordnet sind, nimmt die Ausreißerbeobachtung den n-ten Platz darin ein.

Für die Statistik (30) ist die Verteilungsfunktion tabelliert. Die kritischen Punkte dieser Verteilung sind für einige n angegeben.

Die kritischen Werte für die Statistik (31) sind abhängig von n

4,0; 6

4,5; 100

5,0; n>1000.

In Formel (31) wird davon ausgegangen, dass und ohne Berücksichtigung der vermuteten Beobachtung berechnet werden.

Bei Statistiken (32) ist die Situation komplizierter. Dafür wird gezeigt, dass bei Gleichverteilung der mathematische Erwartungswert und die Varianz die Form haben:

Der kritische Bereich wird durch kleine Werte gebildet, die großen Werten entsprechen. Wenn Sie nach dem „Ausreißer“ des kleinsten Werts suchen möchten, transformieren Sie die Daten zunächst so, dass sie über das Intervall gleichmäßig verteilt sind, und addieren Sie dann diese einheitlichen Werte zu 1 und überprüfen Sie sie mit Formel ( 32).

Betrachten Sie die Verwendung der obigen Kriterien für die folgende Rangfolge von Beobachtungen: 3,4,5,5,6,7,8,9,9,10,11,17. Sie müssen entscheiden, ob Sie den größten Wert von 17 ablehnen.

Wir haben: Nach Formel (30) = (17-11)/3,81 = 1,57, und die Nullhypothese sollte bei =0,01 akzeptiert werden. Nach Formel (31) = (17-7,0)/2,61 = 3,83 muss auch die Nullhypothese akzeptiert werden. Um das dritte Kriterium zu verwenden, finden wir dann =5,53

Die w-Statistik ist normalverteilt mit einem Mittelwert von null und einer Einheitsvarianz, und daher wird die Nullhypothese bei =0,05 akzeptiert.

Die Komplexität der Verwendung von Statistiken (32) besteht in der Notwendigkeit, a priori Informationen über das Verteilungsgesetz von Stichprobenwerten zu haben und diese Verteilung dann analytisch in eine gleichmäßige Verteilung über das Intervall umzuwandeln.

Literatur

1. Eliseeva I.I. Allgemeine Theorie der Statistik: Ein Lehrbuch für Universitäten / I.I. Eliseeva, M.M. Juzbaschew; ed. ich.ich Eliseeva. - M.: Finanzen und Statistik, 2009. - 656 p.

2. Efimova M.R. Workshop zur allgemeinen Theorie der Statistik: Lehrbuch für Universitäten / M.R. Efimova und andere - M .: Finanzen und Statistik, 2007. - 368 p.

3. Melkumov Ya.S. Sozioökonomische Statistik: Lehrmittel. - M.: IMPE-PUBLISH, 2007. - 200 S.

4. Allgemeine Theorie der Statistik: Statistische Methodik im Studium der Handelstätigkeit: ein Lehrbuch für Universitäten / O.E. Bashina und andere; ed. OE Bashina, A.A. Spirin. - M.: Finanzen und Statistik, 2008. - 440 p.

5. Salin V.N. Der Kurs der Theorie der Statistik für die Ausbildung von Spezialisten im Finanz- und Wirtschaftsprofil: Lehrbuch / V.N. Salin, E. Yu. Churilova. - M.: Finanzen und Statistik, 2007. - 480 p.

6. Sozioökonomische Statistik: Workshop: Lehrbuch / V.N. Salin und andere; ed. VN Salina, E.P. Schpakowskaja. - M.: Finanzen und Statistik, 2009. - 192 p.

7. Statistik: Lehrbuch / A.V. Bagat und andere; ed. V.M. Simchery. - M.: Finanzen und Statistik, 2007. - 368 p.

8. Statistik: Lehrbuch / I.I. Eliseeva und andere; ed. ich.ich Eliseeva. - M.: Hochschulbildung, 2008. - 566 p.

9. Theorie der Statistik: ein Lehrbuch für Universitäten / R.A. Shmoylov und andere; ed. RA Shmoylova. - M.: Finanzen und Statistik, 2007. - 656 p.

10. Shmoylova R.A. Workshop zur Theorie der Statistik: Lehrbuch für Universitäten / R.A. Shmoylov und andere; ed. RA Shmoylova. - M.: Finanzen und Statistik, 2007. - 416 p.

SEITE \* MERGEFORMAT 1

Andere verwandte Arbeiten, die Sie interessieren könnten.vshm>

17926. Analyse von Kompaktheitskriterien für die Industrierobotik 1,77 MB
Softwarelösungen zur Beurteilung der Kompaktheit des Roboters. Miniaturroboter können enge Spaltformationen der Öffnung durchdringen und sich in diese bewegen, wodurch sie verwendet werden können, um verschiedene Aufgaben auf engstem Raum auszuführen, beispielsweise Rohre mit kleinem Durchmesser mit einer Größe in der Größenordnung von mehreren Millimetern. Praktisch in allen Industriezweigen gehören die Fragen der Miniaturisierung von Aktuatoren und Mechanismen zu den vorrangigen Aufgaben; sie sind von großer Bedeutung für ressourcenschonende technologische Prozesse ...
1884. Entwicklung von Kriterien für effektives Personalmanagement in OJSC Kazan-Orgsintez für QMS 204,77 KB
Die wichtigsten theoretischen Aspekte des Personalmanagementsystems. Personal als Objekt der Führung. Forschungsmethoden des Personalmanagementsystems für QMS. Möglichkeiten zur Verbesserung der Effizienz des Personalmanagements.
16316. und diese Theorie löst dieses Dilemma; b Die Lösung dieses Dilemmas erfordert die Existenz von Kriterien für diese Theorie. 12,12 KB
Der Autor argumentiert, dass der grundlegende Grund für das Dilemma der makroökonomischen Politik bei einem festen Wechselkurs nicht in der Verletzung der Tinbergen-Regel liegt, die eigentlich eine Folge und nicht eine Ursache ist, sondern im Fehlen der notwendigen ökonomischen Voraussetzungen für die Wechselkursfestlegung Rate in der Theorie der optimalen Währungsräume dargestellt. Als Grund für dieses Dilemma wird üblicherweise ein Verstoß gegen die Tinbergensche Regel angesehen, wonach der Staat zur Erreichung einer bestimmten Anzahl wirtschaftlicher Ziele ...
18273. Analyse der Rechtsstellung des Präsidenten der Republik Kasachstan unter dem Gesichtspunkt allgemein anerkannter Kriterien der Rechtsstaatlichkeit und des Grundsatzes der Gewaltenteilung 73,64 KB
Der Kern des Ansatzes des Präsidenten war, dass sich das Land auf natürliche evolutionäre Weise entwickeln sollte. Präsidialregierung – von der Staatsverfassung vorgeschrieben ist die Beendigung der Tätigkeit der Organe der Selbstverwaltung einer bestimmten regionalen Verwaltungseinheit und deren Verwaltung durch vom Staatsoberhaupt ernannte autorisierte Personen – den Präsidenten und die ihm Rechenschaftspflichtigen ihn; Ausüben der Verfassung des Staatsoberhauptes - des Präsidenten der Notstandsbefugnisse im Maßstab des Ganzen ...
5713. Verwenden von DotNetNuke 1,87 MB
In dieser Hausarbeit werden wir DotNetNuke untersuchen. DotNetNuke (abgekürzt als DNN) ist ein Web-Content-Management-System (Web Content Management System, abgekürzt WCMS), das die besten Errungenschaften auf dem Gebiet der Technologien zum Erstellen von Webprojekten enthält.
7073. SCHNITTSTELLEN VERWENDEN 56,59 KB
Das Wort Schnittstelle ist mehrdeutig und hat in verschiedenen Kontexten unterschiedliche Bedeutungen. Es gibt ein Konzept einer Software- oder Hardwareschnittstelle, aber in den meisten Fällen wird das Wort Schnittstelle mit einer Art Kommunikation zwischen Objekten oder Prozessen in Verbindung gebracht.
6471. Aufbau und Verwendung von Registern 193.04KB
Aufbau und Verwendung von Registern Register dienen zum Speichern und Umwandeln von Mehrbit-Binärzahlen. Die Register sind als geordnete Folge von Flip-Flops aufgebaut. In Mikroprozessoren sind Register die Hauptmittel zum schnellen Merken und Speichern digitaler Informationen. Die Elemente, aus denen die Register aufgebaut sind, sind D RS JK-Flip-Flops mit dynamischer Abschaltung oder statischer Steuerung.
6472. Aufbau und Verwendung von Zählern 318,58 KB
Klassifizierung und Konstruktionsprinzip von asynchronen Zählern Ein Zähler ist ein Gerät, an dessen Ausgängen ein Binärcode gebildet wird, der die Anzahl der am Eingang des Zählers empfangenen Impulse ausdrückt. Die Anzahl der möglichen Zählerstände wird als Modul oder Zählfaktor bezeichnet und bezeichnet. Wichtigste zeitliche Eigenschaften von Zählern: – maximale Ankunftshäufigkeit von Zählimpulsen; ist die Übergangszeit von einem Zustand in einen anderen; Es gibt tatsächlich Zähler-Mikroschaltungen und Schaltungen, die auf der Grundlage von einem oder mehreren ...
7066. VERWENDUNG DES MENÜS IN DER APP 240,2 KB
Das Programmmenü Das Programmmenü muss den Hauptmodi des Programms entsprechen, daher ist die Auswahl der Menüpunkte und Befehle der einzelnen Punkte mit besonderer Sorgfalt zu behandeln. Zum besseren Verständnis der Technologie der Verwendung von Menüs in Programmen betrachten wir die Abfolge der Aktionen beim Lösen des folgenden Trainingsprogramms. Alle Aktionen werden über das Menü ausgeführt.
7067. DIALOGMENÜS VERWENDEN 73,13 KB
Um die Entwicklung einer Anwendung mit einem Menü und einer Symbolleiste fortzusetzen, müssen wir den Message-Handler-Code für die Befehle schreiben, um eine 6 * 6-Matrix zu erstellen und die Matrix im Clientbereich unserer Anwendung anzuzeigen (zu drucken). Die Erstellung einer Matrix muss abgeschlossen werden, indem auf dem Bildschirm eine Meldung über den erfolgreichen Abschluss des Handlers angezeigt wird, z. B. „Die Matrix wurde erstellt“.

Da alle Annahmen über die Natur einer bestimmten Verteilung Hypothesen sind, müssen sie einer statistischen Überprüfung unterzogen werden Einwilligungskriterien, die es ermöglichen festzustellen, wann die Diskrepanzen zwischen theoretischen und empirischen Häufigkeiten als unbedeutend, d. h. zufällig und wenn - signifikant (nicht zufällig). Die Kriterien der Anpassungsgüte ermöglichen es also, die Richtigkeit der aufgestellten Hypothese zu verwerfen oder zu bestätigen, wenn die Reihe über die Art der Verteilung in der empirischen Reihe nivelliert wird.

Es gibt eine Reihe von Einwilligungskriterien. Häufiger werden die Pearson-, Romanovsky- und Kolmogorov-Kriterien verwendet.

Pearson-Anpassungstest - einer der wichtigsten

wobei k die Anzahl der Gruppen ist, in die die empirische Verteilung unterteilt ist,
ist die beobachtete Häufigkeit des Merkmals in der i-ten Gruppe,
ist die theoretische Frequenz.
Für die Verteilung wurden Tabellen zusammengestellt, in denen der kritische Wert des Anpassungsgütekriteriums für das gewählte Signifikanzniveau und die Freiheitsgrade df (oder ) angegeben ist.
Das Signifikanzniveau ist die Wahrscheinlichkeit einer fehlerhaften Ablehnung der aufgestellten Hypothese, d.h. die Wahrscheinlichkeit, dass die richtige Hypothese verworfen wird. In der Statistik werden drei Ebenen verwendet:

  • a= 0,10, dann Р=0,90 (in 10 Fällen von 100 kann die richtige Hypothese verworfen werden);
  • a=0,05, dann P=0,95;
  • a=0,01, dann P=0,99.

Die Zahl der Freiheitsgrade df ist definiert als die Zahl der Gruppen in der Verteilungsreihe abzüglich der Zahl der Bindungen: df = k –z. Unter der Anzahl der Verbindungen wird die Anzahl der Indikatoren der empirischen Reihe verstanden, die bei der Berechnung der theoretischen Häufigkeiten verwendet werden, d.h. Indikatoren, die empirische und theoretische Häufigkeiten verknüpfen.
Bei einer Ausrichtung mit einer Normalverteilungskurve gibt es beispielsweise drei Beziehungen:
; ; .
Daher wird beim Nivellieren entlang der Normalverteilungskurve die Anzahl der Freiheitsgrade als df = k –3 definiert.
Zur Beurteilung der Wesentlichkeit wird der errechnete Wert mit dem Tabellenwert verglichen.
Bei voller Übereinstimmung von theoretischer und empirischer Verteilung , sonst >0. Wenn >, dann lehnen wir für ein gegebenes Signifikanzniveau und die Anzahl der Freiheitsgrade die Hypothese der Insignifikanz (Zufälligkeit) von Diskrepanzen ab.
Wenn , schließen wir, dass die empirische Reihe gut mit der Hypothese der erwarteten Verteilung übereinstimmt, und mit der Wahrscheinlichkeit Р=(1-a) kann argumentiert werden, dass die Diskrepanz zwischen den theoretischen und empirischen Häufigkeiten zufällig ist.
Der Anpassungstest nach Pearson wird verwendet, wenn die Populationsgröße groß genug ist und die Häufigkeit jeder Gruppe mindestens 5 betragen muss.

Das Kriterium von Romanovsky mit basierend auf der Verwendung des Pearson-Kriteriums, d.h. bereits gefundene Werte, und die Anzahl der Freiheitsgrade df:

Es ist nützlich, wenn es keine Tabellen für gibt.
Wenn mit<3, то расхождения распределений случайны, если же с>3, dann sind sie nicht zufällig und die theoretische Verteilung kann nicht als Modell für die untersuchte empirische Verteilung dienen.

Kolmogorovs Kriterium l basiert auf der Bestimmung der maximalen Diskrepanz zwischen den kumulierten Häufigkeiten und den Häufigkeiten empirischer und theoretischer Verteilungen:
oder ,
wobei D und d jeweils die maximale Differenz zwischen den kumulativen Häufigkeiten und den kumulativen Häufigkeiten der empirischen und theoretischen Verteilungsreihen sind;
N ist die Anzahl der Bevölkerungseinheiten.
Nachdem der Wert von l berechnet wurde, bestimmt die Tabelle P(l) die Wahrscheinlichkeit, mit der argumentiert werden kann, dass die Abweichungen der empirischen Häufigkeiten von den theoretischen zufällig sind. Die Wahrscheinlichkeit Р(l) kann von 0 bis 1 variieren. Bei Р(l)=1 gibt es eine vollständige Übereinstimmung der Häufigkeiten, Р(l)=0 – eine vollständige Diskrepanz. Wenn l Werte bis 0,3 annimmt, dann ist P(l)=1.
Die Hauptbedingung für die Anwendung des Kolmogorov-Kriteriums ist eine ausreichend große Anzahl von Beobachtungen.

Definition 51. Kriterien, die es ermöglichen zu beurteilen, ob die Werte übereinstimmen X 1 , X 2 ,…, x n zufällige Variable X mit einer Hypothese über seine Verteilungsfunktion genannt werden Einwilligungskriterien.

Die Idee, Goodness-of-Fit-Kriterien zu verwenden

Anhand dieses statistischen Materials ist es notwendig, die Hypothese zu testen H, die darin besteht, dass SW X gehorcht einem bestimmten Verteilungsgesetz. Dieses Gesetz kann entweder als Verteilungsfunktion angegeben werden F(x) oder in Form der Verteilungsdichte f(x) oder in Form einer Reihe von Wahrscheinlichkeiten Pi. Da von all diesen Formen die Verteilungsfunktion F(x) am allgemeinsten ist (es existiert sowohl für DSW als auch für NSW) und alle anderen bestimmt, werden wir die Hypothese formulieren H, da darin besteht, dass die Menge X hat eine Verteilungsfunktion F(x).

Annahme oder Ablehnung einer Hypothese H, betrachten Sie eine Menge U Charakterisierung des Grads der Diskrepanz (Abweichung) der theoretischen und statistischen Verteilungen. WertU kann auf verschiedene Arten ausgewählt werden: 1) Summe der quadrierten Abweichungen der theoretischen Wahrscheinlichkeiten Pi aus den entsprechenden Häufigkeiten, 2) die Summe derselben Quadrate mit einigen Koeffizienten (Gewichten), 3) die maximale Abweichung der statistischen (empirischen) Verteilungsfunktion von der theoretischen F(x).

Lassen Sie den Wert U auf die eine oder andere Weise gewählt. Offensichtlich ist dies eine Zufallsvariable. Vertriebsrecht U hängt vom Verteilungsgesetz der Zufallsvariablen ab X, an denen Experimente durchgeführt wurden, und von der Anzahl der Experimente n. Wenn die Hypothese H gilt, dann gilt das Verteilungsgesetz der Menge U durch das Verteilungsgesetz der Menge bestimmt X(Funktion F(x)) und Nummer n.

Nehmen wir an, dieses Verteilungsgesetz sei bekannt. Als Ergebnis dieser Versuchsreihe wurde festgestellt, dass das gewählte Diskrepanzmaß U einen gewissen Wert angenommen u. Frage: kann dies durch zufällige Ursachen erklärt werden oder diese Diskrepanz ist auch groß ist und auf einen signifikanten Unterschied zwischen der theoretischen und der statistischen (empirischen) Verteilung und damit auf die Untauglichkeit der Hypothese hinweist H? Um diese Frage zu beantworten, nehmen Sie an, dass die Hypothese H richtig ist, und unter dieser Annahme berechnen wir die Wahrscheinlichkeit, dass aufgrund zufälliger Ursachen, die mit einer unzureichenden Menge an experimentellem Material verbunden sind, das Maß der Diskrepanz entsteht U nicht kleiner als der experimentell beobachtete Wert sein u, das heißt, wir berechnen die Wahrscheinlichkeit des Ereignisses: .

Wenn diese Wahrscheinlichkeit klein ist, dann die Hypothese H als wenig plausibel verworfen werden sollte, aber wenn diese Wahrscheinlichkeit signifikant ist, dann schließen wir daraus, dass die experimentellen Daten der Hypothese nicht widersprechen H.

Es stellt sich die Frage: Wie ist das Maß der Diskrepanz (Abweichung) zu wählen? U? Es stellt sich heraus, dass für einige Möglichkeiten der Wahl das Gesetz der Verteilung der Menge gilt U hat sehr einfache Eigenschaften und ist dafür ausreichend groß n praktisch unabhängig von der Funktion F(x). Gerade solche Diskrepanzmaße werden in der mathematischen Statistik als Übereinstimmungskriterien verwendet.

Definition 51 / . Das Kriterium der Anpassungsgüte ist das Kriterium zum Testen der Hypothese über das angenommene Gesetz der unbekannten Verteilung.

Verwenden Sie für quantitative Daten mit nahezu normalen Verteilungen parametrisch Methoden, die auf Indikatoren wie mathematischer Erwartung und Standardabweichung basieren. Um insbesondere die Zuverlässigkeit der Differenz zwischen den Mittelwerten für zwei Proben zu bestimmen, wird das Student-Verfahren (Kriterium) verwendet, und um die Differenzen zwischen drei oder mehr Proben zu beurteilen, wird der Test verwendet F, oder Varianzanalyse. Wenn wir es mit nicht quantitativen Daten zu tun haben oder die Stichproben zu klein sind, um sicher zu sein, dass die Populationen, aus denen sie entnommen werden, einer Normalverteilung folgen, verwenden wir nichtparametrisch Methoden - Kriterium x 2(Chi-Quadrat) oder Pearson für qualitative Daten und Kriterien für Vorzeichen, Ränge, Mann-Whitney, Wilcoxon usw. für ordinale Daten.

Darüber hinaus hängt die Wahl der statistischen Methode davon ab, ob die Stichproben, deren Mittelwerte verglichen werden, sind unabhängig(d.h. z.B. aus zwei verschiedenen Fächergruppen entnommen) oder abhängig(d. h. die Ergebnisse derselben Probandengruppe vor und nach der Exposition oder nach zwei verschiedenen Expositionen widerspiegeln).

Pp. 1. Pearson-Test (- Chi-Quadrat)

Produzieren lassen n unabhängige Experimente, bei denen jeweils die Zufallsvariable X einen bestimmten Wert annahm, also eine Stichprobe von Beobachtungen einer Zufallsvariablen gegeben ist X(Allgemeinbevölkerung) Volumen n. Betrachten Sie das Problem der Überprüfung der Nähe der theoretischen und empirischen Verteilungsfunktionen für eine diskrete Verteilung, dh es muss überprüft werden, ob die experimentellen Daten mit der Hypothese übereinstimmen H 0 besagt, dass die Zufallsvariable X hat ein Verteilungsgesetz F(x) auf dem Signifikanzniveau α . Nennen wir dieses Gesetz "theoretisch".

Beim Erhalten eines Anpassungsgütekriteriums zum Testen einer Hypothese wird ein Maß bestimmt D Abweichungen der empirischen Verteilungsfunktion einer gegebenen Stichprobe von der angenommenen (theoretischen) Verteilungsfunktion F(x).

Am gebräuchlichsten ist das von Pearson eingeführte Maß. Werfen wir einen Blick auf diese Maßnahme. Wir teilen die Wertemenge der Zufallsvariablen auf X auf der r Sätze - Gruppen S 1 , S 2 ,…, Sr, ohne gemeinsame Punkte. In der Praxis wird eine solche Partitionierung mit ( r- 1) Zahlen c 1 < c 2 < … < r-eines . In diesem Fall wird das Ende jedes Intervalls aus dem entsprechenden Satz ausgeschlossen und das linke eingeschlossen.

S 1 S 2 S 3 …. Sr -1 Sr

c 1 c 2 c 3 r -1

Lassen Pi, , - die Wahrscheinlichkeit, dass die SW X gehört zum Set Si(offensichtlich ). Lassen n ich, , - die Anzahl der Werte (Variante) aus der Anzahl der zur Menge gehörenden Observablen Si(empirische Frequenzen). Dann die relative Häufigkeit des SW-Treffers X viele Si bei n Beobachtungen. Es ist klar, dass , .

Für die obige Aufteilung gilt: Pi es gibt eine Erhöhung F(x) am Set Si, und das Inkrement befindet sich in derselben Menge. Wir bringen die Ergebnisse der Experimente in Form einer gruppierten statistischen Reihe in eine Tabelle.

Gruppengrenzen Relative Frequenz
S 1:x 1 – x 2
S 2: x 2 – x 3
Sr: xrxr +1

Wenn man das theoretische Verteilungsgesetz kennt, kann man die theoretischen Wahrscheinlichkeiten einer Zufallsvariablen finden, die in jede Gruppe fällt: R 1 , R 2 , …, p r. Bei der Überprüfung der Konsistenz der theoretischen und empirischen (statistischen) Verteilungen gehen wir von den Diskrepanzen zwischen den theoretischen Wahrscheinlichkeiten aus Pi und beobachtete Frequenzen.

Zum Maß D Abweichungen (Abweichungen) der empirischen Verteilungsfunktion von der theoretischen nehmen die Summe der quadrierten Abweichungen der theoretischen Wahrscheinlichkeiten Pi aus den jeweiligen Frequenzen mit einigen "Gewichten" genommen c ich: .

Chancen c ich eingeführt, weil im allgemeinen Fall Abweichungen in Bezug auf verschiedene Gruppen nicht als gleich bedeutend angesehen werden können: Die Abweichung vom gleichen absoluten Wert kann von geringer Bedeutung sein als die Wahrscheinlichkeit selbst Pi ist groß, und sehr auffällig, wenn es klein ist. Daher natürlich "Gewichte" c ich umgekehrt proportional zu den Wahrscheinlichkeiten sein. Wie wählt man dieses Verhältnis?

K. Pearson hat gezeigt, dass wenn wir setzen, dann für groß n Mengenverteilungsgesetz U hat sehr einfache Eigenschaften: Sie ist praktisch unabhängig von der Verteilungsfunktion F(x) und von der Anzahl der Experimente n, hängt aber nur von der Anzahl der Gruppen ab r, nämlich dieses Gesetz mit zunehmendem n nähert sich der sogenannten Chi-Quadrat-Verteilung .

Wenn Sie zu diesem Thema weiteres Material benötigen oder nicht fündig geworden sind, empfehlen wir Ihnen die Suche in unserer Werkdatenbank:

Was machen wir mit dem erhaltenen Material:

Wenn sich dieses Material für Sie als nützlich erwiesen hat, können Sie es auf Ihrer Seite in sozialen Netzwerken speichern:

Ein Anpassungstest ist ein Signifikanztest, der verwendet wird, um eine Hypothese über das Verteilungsgesetz der allgemeinen Bevölkerung zu testen, aus der die Stichprobe gezogen wird.

Am häufigsten interessiert den Forscher, ob die Verteilung experimenteller Daten dem normalen Gesetz entspricht. Daher beziehen sich die Beispiele auf das Testen der experimentellen Verteilung auf Normalverteilung.

  • Shapiro-Wilk-Test
  • Chi-Quadrat-Test
  • Kolmogorov-Smirnov-Lambda-Kriterium

SHAPIRO-WILKI-KRITERIUM

Anwendungsbedingungen: kleine Stichprobengröße

H 0 - die Verteilung der Allgemeinbevölkerung, aus der die Stichprobe der Bevölkerung gewonnen wurde, entspricht dem Normalgesetz.

H 1 - Die Verteilung der Allgemeinbevölkerung, aus der die Stichprobe der Bevölkerung gewonnen wurde, entspricht nicht dem Normalgesetz.

Tabelle 1 – Algorithmus zur Berechnung des Shapiro-Wilk-Tests.

xx∆kkdankeankΔk
1 2 3 4 5 6 7
1 11,8 13,8 2 1 0,5739 1,1478
2 12 13,2 1,2 2 0,3291 0,39492
3 12,1 13 0,9 3 0,2141 0,19269
4 12,3 12,8 0,5 4 0,1224 0,0612
5 12,6 12,6 0 5 0,0399 0
6 12,6 12,6
7 12,8 12,3 Betrag=b=17966
8 13 12,1
9 13,2 12
10 13,8 11,8

Das Verfahren zur Berechnung des Shapiro-Wilky-Kriteriums

  1. Wir formulieren die Hypothese H 0 über die Übereinstimmung der Verteilung der Allgemeinbevölkerung, aus der die Daten gewonnen wurden, mit dem Normalgesetz. Wir ordnen ein Signifikanzniveau α=0,05 zu.
  2. Wir erhalten eine Probe experimenteller Daten (Spalte 1 von Tabelle 1). In unserem Fall n=10.
  3. Wir berechnen den Wert der Stichprobenvarianz. Zum Beispiel S 2 \u003d 0,37.
  4. Wir ordnen die Stichprobe in aufsteigender und absteigender Reihenfolge (Spalten 2 und 3)
  5. Berechnen Sie die Differenzen Δk (Spalte 5)
  6. Aus Tabelle 6 des Anhangs (siehe V.S. Ivanov, 1990) finden wir die Werte der Koeffizienten ank (Spalte 6)
  7. Finden Sie das Produkt ankΔk
  8. Berechnen Sie b=Summe ankΔk= 1,7966
  9. Wir berechnen den Wert des Wf-Kriteriums mit der Formel:
  1. Aus Tabelle. 7 Anwendungen (siehe V.S. Ivanov, 1990) finden wir den kritischen Wert des Shapiro-Wilk-Tests für α=0,05 Wcrit= 0,842.
  2. Fazit. Da Wf > Wcrit können wir sagen, dass die experimentellen Daten dem Normalgesetz auf einem Signifikanzniveau von 0,05 entsprechen.

CHI-QUADRAT-TEST

Entworfen Karl Pearson. Basierend auf der Konstruktion einer Intervallvariationsreihe und einem Vergleich empirischer (n em) und theoretischer (n t) Häufigkeiten (Abb. 1).

Abb.1. Ein Histogramm, das die empirische Verteilung und die Wder Normalverteilung charakterisiert.

Statistische Hypothese: Verteilungsdichte der Allgemeinbevölkerung, aus der die Stichprobe gezogen wird, entspricht dem theoretischen Modell der Normalverteilung.

Der Wert des eigentlichen Chi-Quadrat-Tests wird nach folgender Formel berechnet:

Ist der tatsächliche Wert des Chi-Quadrat-Tests größer oder gleich dem kritischen Wert des Chi-Quadrat-Tests, kann daraus geschlossen werden, dass die empirische Verteilung auf dem Signifikanzniveau α nicht dem Normalgesetz folgt.

KOLMOGOROV-SMIRNOV LAMBDA-KRITERIUM

Entwickelt von Andrey Nikolaevich Kolmogorow und Nikolai Wassiljewitsch Smirnov.

Statistische Hypothese: Die Verteilungsfunktion der Allgemeinbevölkerung (Abb. 2), aus der die Stichprobe gezogen wird, entspricht der Verteilungsfunktion des Normalgesetzes.

Abb.2. Rote Punkte - Kumulierung, aufgebaut auf Basis experimenteller Daten, blaue Kurve - theoretische Verteilungsfunktion (Normalverteilung).

Der Wert des Kriteriums λ f wird nach folgender Formel berechnet:

Fazit: wenn λ f > λ crit - empirische Verteilung entspricht nicht dem normalen auf dem Signifikanzniveau α.

LITERATUR

  1. Höhere Mathematik und Mathematische Statistik: ein Lehrbuch für Universitäten / Ed. ed. G. I. Popova. - M. Körperkultur, 2007. - 368 p.
  2. Grundlagen der mathematischen Statistik: Lernprogramm für in-t nat. Kult / Ed. VS. Ivanova.– M.: Fizkultura i sport, 1990. 176 p.